Che cos'è Google saturazione?

January 7

Che cos'è Google saturazione?


Il termine "Google Saturazione" è usato per descrivere quante pagine individuali su un sito web sono presenti all'interno di Google. Le pagine più indici di Google all'interno di un sito aumenta il numero totale di pagine del sito che può comparire nei risultati di ricerca di Google: una pagina che non è nell'indice di Google non verranno visualizzati nei risultati di ricerca. Un sito di Google saturazione può essere migliorata attraverso l'implementazione Search Engine Optimization, o SEO, le migliori pratiche.

Search Engine Saturation

Il termine "motore di ricerca Saturazione" si applica ai file di indice tenuti da tutti i motori di ricerca su Internet. Google saturazione è un fattore di Google specifico. Un motore di ricerca non può riportare un sito o una pagina web come risultato a meno che il motore di ricerca è a conoscenza che esiste. Al fine di costruire un indice da utilizzare per i risultati di ricerca, i motori di ricerca utilizzano programmi chiamati crawler Web che esaminano, specie e le pagine del sito. Il livello di saturazione si riferisce al numero di quelle pagine sono all'interno di Google. Google può rifiutare le pagine che non sono configurati in modo ottimale o hanno una quantità eccessiva di ripetere contenuti. programmatori web e specialisti SEO possono utilizzare un basso tasso di saturazione per identificare e correggere i problemi di codifica con un sito web che impediscono che venga completamente indicizzato in Google.

Link Crawler naturali

Anche se un sito non è formalmente presentata al nell'indice di Google o progettati con SEO in mente, programmi Web crawler di Google, naturalmente, trovare il sito di annunci nel sito messa in vendita di server - noto anche come Domain Name System - e la scansione del sito. Web crawler di Google, naturalmente, costruire un indice seguendo i link interni trova su un sito. Il crawler utilizzerà intestazione e directory collegamenti per costruire un indice di sezioni del sito e individuare i singoli articoli, pagine e post dalle pagine della sezione del sito.

Costruire e Invia una Sitemap

programmi crawler di Google sono efficienti, ma non sono perfetto, e non saranno in grado di trovare le pagine a meno che non ci sia un link che porta alla pagina. Inoltre, il crawler può avere problemi seguenti link specifici. Google fornisce servizi che possono aiutare direttamente crawler del motore di ricerca di tutte le pagine di un sito all'interno dei Webmaster Tools. È possibile costruire un sito che elenca tutte le pagine di un sito e sostengono che a Google attraverso i Webmaster Tools. La mappa del sito farà in modo che i crawler di Google esegue la scansione di ogni pagina del sito. Tuttavia, anche se la pagina è nella mappa del sito, non può essere indicizzato. Sitemaps sono directory del sito costruito con il linguaggio di programmazione XML.

Non bloccare il robot

A titolo di cortesia, Web crawler di Google potranno leggere un file di testo chiamato "robots.txt" collocato nella radice del dominio per controllare dove si possono e non possono sezioni indice all'interno di un sito. Google indicizzerà qualsiasi directory del sito di default, ma è possibile utilizzare il file robots.txt per dire a Google di ignorare le cose come le pagine interne, pagine di prova e le pagine dei risultati di ricerca. Tuttavia, il file robots.txt può essere pericoloso per la capacità di Google di indicizzare un sito. Se il file dice Google che non è permesso di indicizzare il sito a tutti, il sito non avrà la saturazione e non apparirà nei risultati.