Ricerca di file veloce

Ricerca file Fast Crawls Server FTP e condivisioni SMB.
Scarica ora

Ricerca di file veloce Classifica e riepilogo

Annuncio pubblicitario

  • Rating:
  • Licenza:
  • GPL
  • Prezzo:
  • FREE
  • Nome editore:
  • Josef Zlomek
  • Sito web dell'editore:

Ricerca di file veloce Tag


Ricerca di file veloce Descrizione

Ricerca file veloce Gualds Server FTP e condivisioni SMB. Ricerca file veloce è un crawler per server FTP e condivisioni SMB che possono essere trovati su Windows o Unix Systems Symba.it fornisce un'interfaccia Web per la ricerca di file. È ottimizzato per la ricerca di file da un carattere jolly quando ci sono alcuni caratteri normali (non "*" o "?") Specificati nell'inizio o nella fine della maschera (ad esempio "* .iso"). Ricerca file veloce Crawler Funziona su UNIX (attualmente solo Linux è stato testato ma ora non ho motivo per cui non dovrebbe funzionare su altri UNIX). Ricerca file veloce Utilizza il database MySQL, l'interfaccia Web ha bisogno di un server Web con PHP> = 4.0.3 e il crawler ha bisogno di alcuni moduli perl. Il crawler (ffsearch.pl) striscia la rete (server FTP dall'elenco e tutti i padroni di host del SMB raggiungibili La rete locale) e memorizza le informazioni sui file in database. Viene invocato in determinati momenti ogni giorno tramite voci di crontab. Ci sono due modalità di funzionamento del crawler: crawl completo e crawl incrementale. Il crawler prevede un argomento della riga di comando che indica a crawler quale modalità eseguire (-c o --complete per strisciare completo, -i o --incremental per il gattonio incrementale). Entrambe le modalità recuperano un elenco degli host SMB attivi in tutti gliGruppi di lavoro. Il crawl completo tenta di eseguire la scansione di tutti gli host attivi e tutti gli host elencati nel database. Il gatton completo deve essere eseguito una volta al giorno. Il crawl incrementale tenta di eseguire la scansione di host e host attivi elencati nel database che non sono stati scansionati dall'ultimo gattonio completo perché erano irraggiungibili. Il gattonio incrementale dovrebbe essere eseguito più volte al giorno, ad esempio ogni 3 ore. In che modo il crawler sa che l'host è stato strisciato dall'ultimo crawl completo? Ogni volta che viene eseguito il gattonio completo, il conteggio scadenza viene incrementato per primo. Quando l'host è strisciato, scadere il conteggio è impostato su zero. Quindi tutti gli host il cui conteggio scaduto> 0 non era raggiungibile dall'ultimo crawl completo. Inoltre, quando scadono il conteggio raggiunge il valore specificato nella configurazione (I.e. Non è stato irraggiungibile durante il periodo di tempo di crawl completi) Le informazioni sui file sull'host "scaduto" sono eliminate dal database. L'interfaccia Web viene utilizzata per cercare i file nel database, i dettagli come cercare sono descritti nella sezione Guida della pagina di ricerca. Puoi anche aggiungere un server FTP a un elenco server FTP, modificare il server FTP nell'elenco o eliminare il server FTP da la lista attraverso l'interfaccia web. In modo che chiunque non possa fare nulla con l'elenco dei server solo il record su ABCDEF è modificabile da Host ABCDEF. Ci sono anche amministratori che possono modificare tutti i record nell'elenco dei server. Gli amministratori accedono attraverso l'interfaccia web. Che cosa è nuovo in questa versione: · Risolti pochi bug nel crawler · Aggiunto la possibilità di escludere alcune azioni SMB · www: Traduzione russo e ucraino migliorato


Ricerca di file veloce Software correlato

Adcensor.

AD Censor filtra gli annunci fastidiosi abbinando gli URL richiesti con una lista nera e controllando il codice HTML per tag sospetti. ...

400

Scarica

mod_text2html.

MOD_TEXT2HTML è un modulo Apache progettato per sostituire il testo interno / gestore normale di Apache. ...

137

Scarica

Openwebstats.

OpenWebstats è un'applicazione di statistiche PHP che legge i file di registro Apache. ...

141

Scarica