¿Cómo puedo download todos los files MP3 de un website?

Me pregunto si hay algún software disponible en OS X que pueda download todos los mp3 o un tipo específico de file de una URL. Por ejemplo, tengo una url http://www.parweztv.com/Khan%20Adeeb/SURA-04/ y quiero tomar todos los mp3 de esta url en lugar de hacer clic derecho uno por uno y savelo.

También se pregunta, si eso se puede hacer usando wget o algún command de terminal en OS X?

  • ¿Hay alguna herramienta gratuita que permita cortar videos?
  • La búsqueda del buscador no funciona correctamente después de la actualización de Yosemite
  • ¿Es posible ingresar primero un command y luego elegir "ejecutar en Terminal" en Quicksilver?
  • Dónde encontrar el número de compilation DENTRO de un DVD de installation de Mac OS X
  • ¿Cómo conocer OS X / Unix mejor?
  • Salga después de X minutos volviendo a encenderse
  • ¿Puedo ejecutar con security aplicaciones de command-line en modo de usuario único?
  • ¿Cómo puedo bloquear los bashs de fuerza bruta de ssh en OS X 10.11?
  • Win 7 tamaño dentro de VMWare
  • ¿Cómo desactivo el zoom multitouch en Safari?
  • Pegar formatting / estilo solamente?
  • Cómo transferir PDF desde iPad a PC / Mac
  • 3 Solutions collect form web for “¿Cómo puedo download todos los files MP3 de un website?”

    Puedes usar wget así:

    wget -r -nd -A.mp3 http://www.parweztv.com/Khan%20Adeeb/SURA-04/ 

    -r para download recursivamente todos los files por debajo del nivel de la URL especificada

    y no crear una jerarquía de directorys en su location de descarga (no es necesario)

    -A para especificar los files que desea download (todos los files que terminan en .mp3 en su caso)

    Puede get wget para OSX a través de homebrew o macports.

    Mi recomendación sería SiteSucker . ¡Es una gran aplicación (gratis)! Le permitirá download carpetas de un sitio. Por lo tanto, solo ingrese su URL y click "Descargar"

    imagen de sitesucker

    SiteSucker es una aplicación de Macintosh que descarga automáticamente sitios web de Internet. Hace esto al copyr asincrónicamente las páginas web, imágenes, backgrounds, películas y otros files del sitio en su disco duro local, duplicando la estructura de directorys del sitio. Simplemente ingrese una URL (Localizador Uniforme de Recursos), presione regresar, y SiteSucker puede download un website completo.

    Puede escribir un script para eso (preferiblemente en PHP o python, o cualquier otro lenguaje de scripting que tenga enlaces a libxml). pero no conozco ninguna solución que use curl o wget solamente.

    Sin embargo, existen progtwigs de nivel GUI para la descarga por lotes. ¡Un ejemplo es DownThemAll! Add-On para Firefox.

    Loving Apple Products like poisoning (iPhone, iPad, iMac, Macbook, iWatch).