Googlebot, cos’è, come funziona e perché è importante per il tuo sito?

Googlebot, cos’è, come funziona e perché è importante per il tuo sito?

Ottenere visibilità sui motori di ricerca è una vera e propria impresa, oltre a mettere in atto tutte le tecniche SEO on-site e off-site, è fondamentale conoscere Googlebot, poiché influenza molto il posizionamento del tuo sito web.

I processi di scansione e indicizzazione vengono usati dai motori di ricerca per classificare i risultati, negli ultimi anni Google ha puntato molto su Googlebot, il crawler che va alla ricerca di siti e contenuti sul web.

Cos’è Googlebot?

Googlebot è un crawler, ovvero, un software sviluppato da Google con l’obiettivo di esplorare e analizzare tutte le pagine dei siti presenti sul web.

Le sue funzioni principali sono sostanzialmente due:

  • Esplorare le pagine web e trovare il maggior numero di contenuti da indicizzare
  • Raccogliere informazioni sulle pagine trovate per mantenere aggiornato il database di Google.

Googlebot esegue il crawling, l’analisi approfondita delle pagine web e dei contenuti e poi li indicizza.

C’è una terza funzione che è quella di ranking, tuttavia, è bene specificare che questa attività viene solo informata da Googlebot.

Questo vuol dire che durante la fase di indicizzazione, il software scansione il contenuto e si assicura che sia utile al motore di ricerca e all’algoritmo di posizionamento. È comunque quest’ultimo a classificare le pagine in base a 200 fattori di ranking.

Perché Googlebot è importante per il tuo sito?

Affinché Google possa mostrare i contenuti del tuo sito web ha bisogno di sapere che esistono e comprendere più informazioni possibili per stabilire la rilevanza con le query di ricerca.

Googlebot svolge proprio questi compiti. Il crawler, trova le pagine, le fa conoscere a Google e, raccoglie i dati che servono al motore di ricerca per capire quali contenuti mostrare in base a ricerche di query specifiche.

È evidente che grazie a questo strumento il tuo sito web può essere mostrato al motore di ricerca che, tenendo conto di altri fattori di ranking, provvederà a posizionarlo nella SERP. Tutto questo si tramuta in visite organiche al sito, indispensabili per ottenere traffico targettizzato e di valore.

Come Googlebot arriva al tuo sito?

Googlebot arriva a un determinato sito tramite un link presente in una pagina terza, oppure, tramite l’inserimento di una Sitemap, una mappa del sito che suggerisce al programma il percorso da fare, facilitando il processo di lettura di tutte le pagine e i contenuti che lo compongono.

Normalmente questo spider accede ai siti non più di una volta ogni pochi secondi, in alcuni casi, la frequenza può aumentare di poco.

Per ridurre l’utilizzo di larghezza di banda, Googlebot esegue tante scansioni sui pc più vicini ai siti che potrebbero essere sottoposti alla scansione.

Questo vuol dire che nei log del server potresti trovare visite di Google da diversi computer con user-agent Googlebot ma IP diversi.

Il lavoro del software è quello di trovare il maggiore numero di pagine del sito senza sovraccaricare il server.

Se quest’ultimo non è in grado di sostenere le richieste di scansione, è possibile agire limitando la frequenza tramite le impostazioni sito presenti nella Google Search Console.

Verificare come Googlebot vede una pagina web

Google mette a disposizione strumenti che servono a verificare come una pagina web viene vista dai suoi crawler.

Uno dei più famosi e utilizzati si chiama Controllo URL ed è presente in Search Console. Puoi incollare l’URL della pagina nella casella e poi cliccare su Visualizza pagina sottoposta a scansione, avrai accesso al codice che visualizza la scansione di Googlebot.

Puoi accedere alle informazioni solo delle pagine indicizzate, ovvero, pubblicate sul motore di ricerca.

Se modifichi la stringhe User Agent del browser, puoi simulare l’accesso dello spider su qualunque pagina web. Puoi farlo da qualsiasi browser web e la procedura è abbastanza semplice.

  • Visita questa pagina, copia e incolla sul block notes le stringe user agent di Google per desktop o smartphone.
  • Apri Chrome e premi F12 per accedere agli Strumenti per gli sviluppatori. Ancor prima puoi aprire una finestra per la navigazione in incognito in modo da svincolarti da eventuali cookie salvati.
  • Premi CTRL+MAIUSC+P per aprire la casella di ricerca.
  • Scrivi “Network Conditions” e poi clicca su Show network conditions.
  • All’interno della scheda Network conditions, disattiva la casella Select automatically, poi seleziona Custom e incolla la stringa user agent di Google.
  • Puoi digitare check user agent all’interno della casella di ricerca di Google e ti verrà mostrato l’user agent di Googlebot.
  • Ora puoi visitare una qualsiasi pagina web che simulerà la visualizzazione del crawler Google.
  • Per annullare, basta chiudere gli Strumenti per gli sviluppatori del browser.

Consigli per ottimizzare il tuo sito web per Googlebot

Ora che hai capito cos’è e come funziona Googlebot, vediamo cosa devi fare affinché questo spider lo trovi e comprenda i suoi contenuti e le pagine.

Premettiamo che Googlebot, prima o poi, troverà comunque il tuo sito web, ma ci sono delle azioni che puoi fare per segnalare fin da subito il tuo sito al crawler.

Crea una sitemap del sito

La sitemap è una mappa che include le pagine e le informazioni del tuo sito web. Più è dettagliata e più facilmente Googlebot analizzerà il sito e riuscirà a catalogarne i contenuti. Puoi anche evitare di inserire alcune pagine che non vuoi che Google indicizzi, per farlo sono disponibili diversi strumenti come, ad esempio, xml-sitemaps-com o il plugin Yoast SEO.

Se sei esperto puoi anche agire sul file robots.txt; su meta tags Robots e intestazione http X-Robots-Tag.

Utilizza Google Search Console

Search Console ha una serie di strumenti in grado di facilitarli il lavoro di segnalazione allo spider. Ad esempio, permette di inviare la sitemap in modo che Googlebot la trovi velocemente, oppure, individuare errori di scansioni delle pagine.

Utilizza tutti i tool che sono messi a disposizione per migliorare il tuo sito e renderlo il più possibile comprensibile a Googlebot e ad altri crawler.

Verifica che il file robots.txt sia corretto

Il crawler che arriva sul sito legge prima il file robots.txt, in cui puoi inserire anche eventuali esclusioni.

Se vuoi dare massima apertura a Googlebot utilizza:

User-agent: *

Disallow:

Se invece, ad esempio, non vuoi che il crawler non consideri le immagini nella sua scansione, utilizza:

User-agent: Googlebot-Image

Disallow: /

Dopo aver inserito le regole e salvato il file robots.txt, dovrai renderlo disponibile ai crawler, per farlo caricalo nel server all’interno della root del sito, oppure, se non sai come fare, contattaci per una consulenza.