| spiderfetch. Ragno Web basato su Python gratuito |
Scarica ora |
spiderfetch. Classifica e riepilogo
- Nome editore:
- Martin Matusiak
- Sistemi operativi:
- Mac OS X
- Dimensione del file:
- 37 KB
spiderfetch. Tag
spiderfetch. Descrizione
Ragno Web basato su Python gratuito Spiderfetch è un ragno web modulare gratuito guidato da ricette composte da espressioni regolari. Spiderfetch ha iniziato come uno strumento per spider tutti i collegamenti su una pagina web, ma poco per poco è diventato un Web Blown Blown Spider.spiderFetch è ora più una suite di strumenti che possono essere utilizzati da soli, come il ragno e il recupero . L'intera suite è scritta in pura Python (in precedenza Ruby) e non richiede dipendenze. Ecco alcune caratteristiche chiave di "Spiderfetch": · Ragni della pagina per tutto ciò che assomiglia ad un URL. · Capacità di filtrare gli URL per un'espressione regolare (tenere presente che questo è ancora il regex di Ruby, quindi. * Per abbinare qualsiasi carattere, non * come nel file globbing, (true | falso) per la scelta e così via.) · Scarica tutti gli URL in serie o semplicemente uscite sullo schermo (con --Dump) se si desidera filtrare / ordinare / ecc. · Può utilizzare un file di indice esistente (con --UsEindex), ma se ci sono collegamenti relativi tra gli URL, avranno bisogno di post-elaborazione, poiché il percorso della pagina dell'indice sul server non è noto dopo che è stato memorizzato localmente. · Utilizza WGet internamente e trasmette anche la sua uscita. Supporta gli URL HTTP, HTTPS e FTP. · Semantica coerente con l'URL negli URL; DO WGGET $ URL ... non ri-scaricare i file completati, riprende i download, i trasferimenti sono stati interrotti. Requisiti: · Python. Limitazioni: · Non garantito per trovare ogni ultimo URL, sebbene la corrispondenza sia piuttosto piena. Se non puoi abbinare un certo URL, sei ancora bloccato con GREP e SED. · Se devi autenticarti in qualche modo nel browser per essere in grado di scaricare i tuoi file multimediali, Spiderfetch non sarà in grado di scaricarli (come con WGet in generale). Tuttavia, tutto non è perso. Se gli URL sono FTP o il server Web utilizza una semplice autenticazione, è comunque possibile posterrimorri a: FTP: // Nome utente: password@the.rest.of.the.url, stesso per http.
spiderfetch. Software correlato