django-robot.

Applicazione esclusione dei robot per Django, complementando sitemaps.
Scarica ora

django-robot. Classifica e riepilogo

Annuncio pubblicitario

  • Rating:
  • Licenza:
  • BSD License
  • Prezzo:
  • FREE
  • Nome editore:
  • Jannis Leidel
  • Sito web dell'editore:
  • http://github.com/jezdez/

django-robot. Tag


django-robot. Descrizione

Applicazione per esclusione dei robot per Django, complementando sitemaps. Django-Robots è un'applicazione di base Django per gestire i file robot.txt a seguito del protocollo di esclusione dei robot, completando l'app Contributo del sito di Django. L'applicazione di esclusione dei robot è costituita da due modelli di database che sono legati con una relazione M2M: * regole * urlsinstallationGers the Fonte dal sito dell'applicazione all'indirizzo: http: //code.google.com/p/django-robots/ per installare l'app Sitemap, attenersi alla seguente procedura: 1. Seguire le istruzioni nel file di installazione.txt2. Aggiungi 'robot' alle impostazioni di installazione_app.3. Assicurati che 'django.template.loaders.app_directories.load_template_source' è nell'impostazione del tuo template_loader. È lì per impostazione predefinita, quindi dovrai solo modificarlo se hai cambiato questa impostazione.4. Assicurati di aver installato i siti framework.initializzazione per attivare la generazione di robots.txt sul tuo sito Django, aggiungi questa linea al tuo URLConf: (R '^ robots.txt $', includi ('robots.urls')), questo dice Django per costruire un robot.txt quando un robot accede /Robots.txt. Quindi, si prega di sincronizzare il database per creare le tabelle necessarie e creare oggetti di regole nell'interfaccia di amministrazione o tramite la shell.rulesRule - Definisce una regola astratta che viene utilizzata per rispondere ai robot web striscianti, utilizzando il protocollo di esclusione dei robot, Aka Robots.txt .È possibile collegare più schemi URL per conservare o disabilitare il robot identificato dal suo agente utente di accedere agli URL specificati. Il campo di riparazione del crawl è supportato da alcuni motori di ricerca e definisce il ritardo tra i successivi accessi crawler in pochi secondi. Se il tasso crawler è un problema per il tuo server, è possibile impostare il ritardo fino a 5 o 10 o un valore comodo per il server, ma è suggerito di iniziare con valori piccoli (0,5-1) e aumentare quanto necessario per un accettabile Valore per il tuo server. I valori di ritardo più grandi aggiungono più ritardo tra i successivi gattonati accessi e diminuiscono la velocità massima del ritaglio sul server Web. Il framework dei siti viene utilizzato per abilitare più robot.txt per istanza di Django. Se nessuna regola si esiste automaticamente, consente a tutti gli accessi del robot Web ad ogni URL.Si prega di dare un'occhiata al database dei robot Web per un elenco completo dei robot web esistenti agente dell'utente stringhe.urlsurl - definisce un motivo URL sensibile al maiuscolo / esatto utilizzato per consentire o non consentire l'accesso per i robot web. Case-Sensitive.A Slash di trascinamento mancante corrisponde anche ai file che iniziano con il nome del modello dato, ad esempio, '/ admin' corrisponde anche /admin.html Too.Some I principali motori di ricerca consentono un asterisco (*) come un jolly di abbinare Qualsiasi sequenza di caratteri e un segno di dollaro ($) per abbinare la fine dell'URL, ad esempio, '/*.jpg$' può essere utilizzato per abbinare tutti i file JPEG.Cachingyou può opzionalmente cache la generazione dei robot.txt. Aggiungi o modifica le impostazioni Robots_Cache_timeout con un valore in secondi nel tuo file di impostazioni Django: robots_cache_timeout = 60 * 60 * 24Questa dice a Django a cache i robots.txt per 24 ore (86400 secondi). Il valore predefinito non è nessuno (nessun cache). Requisiti: · Django. · Python.


django-robot. Software correlato