Statistiche di Scansione Google Search Console: Analizzare e Migliorare

Uno degli errori che più di frequente interessa chi si occupa di ottimizzazione per i motori di ricerca è dimenticare quale sia lo strumento SEO migliore, imprescindibile e gratuito: la Google Search Console, che ancora in molti identificano col vecchio nome, Google Webmaster Tools.

In questo post voglio parlarti di una voce ben precisa: la trovi all’interno del tool, sotto l’etichetta scansione e si chiama statistiche di scansione.

All’interno di questa sezione avrai a disposizione 3 voci:

  • Pagine sottoposte a scansione giornalmente
  • Kilobyte scaricati giornalmente
  • Tempo trascorso per il download di una pagina (in millisecondi)

Ad ognuno di questi punti corrisponde un grafico, che mostra l’andamento degli ultimi 90 giorni, riassumendo così l’attività del googlebot, ossia dello spider che analizza ed indicizza il tuo sito web, degli ultimi 3 mesi circa.

Si tratta di dati di fondamentale importanza, che ti restituiscono un quadro preciso e che possono essere migliorati con un lavoro di ottimizzazione.

Prima di entrare nel vivo voglio essere sicuro che tu sappia cosa sia il Crawl Budget, per questo spenderò due parole sull’argomento.

Crawl Budget: le risorse impiegate da Google per scansionare il tuo sito

Google quotidianamente scansiona e cataloga miliardi di siti, blog e contenuti di ogni tipo presenti in rete. Questo chiaramente ha un costo in termini di risorse impiegate: soldi che di certo Google non ama buttare via al vento.

Ad ogni sito viene dunque assegnato un valore, un vero e proprio budget che quotidianamente viene speso facendo il crawling delle pagine.

L’ammontare di questo budget varia ed è regolato da diversi fattori, alcuni sintetizzati nella schermata delle statistiche di scansione, altri deducibili da altre statistiche.

Per quel che riguarda i fattori non direttamente valutabili spicca l’autorità del sito: ad un sito mediamente ben posizionato, con contenuti originali e con tanti link da siti autorevoli in entrata, viene solitamente assegnato un budget maggiore rispetto ad un sito poco ottimizzato e con un profilo backlink vergine.

Considera anche che il bot è in grado di adattarsi: così se ad esempio cambi radicalmente la grafica del tuo blog, nei giorni successivi è molto probabile che il bot assegni un budget più ampio, in grado di scansionare molte pagine il cui output HTML è nettamente cambiato.

Detto questo, è il momento di concentrarci sulle statistiche di scansione, per capire cosa vogliono dire e come leggerle al fine di agire per ottimizzare il sito o blog.

Statistiche di scansione: analizzare i dati, ottimizzare ed aumentare il crawl budget

Pagine sottoposte a scansione giornalmente

Questo valore è molto semplice da interpretare: ci segnala quante pagine sono state prese in esame da Google in ognuno dei 90 giorni passati.

Tanto più alto il numero di pagine, meglio è.

Il perchè è molto semplice: è un segnale positivo! Se passa e ripassa per tutte le tue pagine del tuo blog, vuol dire che queste sono o possono essere importanti per il suo indice e vuole essere sempre certo di avere catalogato il contenuto attuale, fresco di eventuali altre modifiche.

Chiaramente la periodicità degli aggiornamenti ed il numero di nuovi contenuti che inserisci hanno un ruolo chiave: se googlebot si aspetta “per abitudine” di trovare un nuovo contenuto in home ogni giorno alla stessa ora, è possibile che si faccia vivo per controllare e catalogare.

Sicuramente i link e gli altri fattori esterni ai quali accennavo al paragrafo precedente sono determinanti, così come lo sono le sezioni che stiamo per vedere.

Kilobyte scaricati giornalmente

Peso delle tue pagine + pagine scansionate giornalmente = quantità di dati scaricati ogni giorno da Google, espressi in kilobyte.

Questa sezione dipende dunque dalle pagine analizzate, viste in precedenza, ma anche dal tipo di contenuti che offri ai tuoi utenti (è inevitabile che contenuti ricchi di immagini e file multimediali siano più pesanti di post con un’immagine e testo).

Rispetto a questo punto ecco quello che devi fare o tenere a mente:

  • Ottimizzare e comprimere le immagini
  • Ottimizzare il CMS che usi, se ne usi
  • Ridurre al minimo plugin, script, oggetti pesanti
  • Utilizzare un buon sistema per la cache

Questa lista è molto preziosa anche in relazione a quanto vedremo al paragrafo successivo.

Tempo trascorso per il download di una pagina (in millisecondi)

Una risorsa chiave è il tempo: per tutti, Google compreso, si tratta di una risorsa limitata.

Se per ogni pagina googlebot perde molto tempo, perchè pesante o ospitata su di un server lento, il numero di pagine scansionate sarà basso.

Al contrario, un tempo di risposta e download ridotto al minimo, fa si che nello stesso arco temporale il crawler riesca a scaricare un numero maggiore di contenuti.

Come ti mostro nell’immagine qui sotto, c’è una relazione molto stretta tra tempo trascorso per il download e numero di pagine sottoposte a scansione:

meno-tempo-trascorso-piu-pagine-scansionate

In questa immagine puoi osservare gli effetti del passaggio ad un hosting più performante, insieme ad un’ottimizzazione del sistema di caching e del sito in generale

L’immagine è abbastanza chiara: ad un abbattimento del tempo trascorso per il download di una pagina, corrispondono i picchi di pagine sottoposte a scansione giornalmente (ed un migliore posizionamento del sito in questione, ma questo dipende anche da altre attività).

Mi è bastato passare ad un hosting migliore ed ottimizzare insieme all’assistenza il mio sito per il loro tipo di server per avere questi risultati.

Ps: si tratta di un blog/magazine con circa 750-800 pagine (tra pagine, post e simili).

Conclusioni

Quella relativa alla scansione è una delle sezioni più sottovalutate della Search Console, eppure si tratta di preziose informazioni che Google ci da rispetto alle attività che compie sul nostro spazio sul web.

Il consiglio finale, come facilmente avrai già intuito, è quello di tenere sempre la situazione sotto controllo e cercare di migliorare ed ottimizzare in base a quanto visto in questo post!

Se hai domande o considerazioni non esitare e lascia subito un commento, come sempre ti risponderò presto.

Prova SEOZoom: per te 15 Giorni Gratis e senza limiti

Coupon SEOZOOM

2 Comments
  1. Reply
    Carlo 26/11/2016 at 19:17

    Buongiorno,
    vorrei usare Google Search Console per la mia pagina aziendale su Facebook:
    è possibile?
    Come faccio a caricare il file scaricato per la verifica?

    • Reply
      Elio 28/11/2016 at 14:13

      Ciao Carlo, non è possibile fare quello che chiedi, la Search Console è per i siti e blog self hosted! Per la pagine utilizza gli Insights

Leave a reply