Google Search Console (GSC) è sicuramente tra gli strumenti per webmaster più preziosi per un consulente SEO e per tutti coloro che possiedono un sito, grazie ai report dettagliati che ci fornisce e che ci permettono di diagnosticare e risolvere i problemi tecnici che incidono sulla visibilità del nostro sito su Google. In questa guida completa vediamo nel dettaglio tutte le sue principali impostazioni e funzionalità.
Search Console, raggiungibile all’indirizzo https://search.google.com/search-console/about, è un’insieme di report e di strumenti per webmaster gratuiti che Google ci mette a disposizione per avere un quadro preciso e dettagliato sulla bontà dei servizi SEO e sulla qualità del proprio sito.
Il webmaster tool permette di impostare diverse configurazioni utili per un miglior posizionamento nei risultati di ricerca e aiuta ad individuare i problemi tecnici e criticità che ostacolano una corretta indicizzazione e scansione del sito.
Fornisce inoltre dati e statistiche sui posizionamenti ottenuti e sui miglioramenti da implementare per raggiungere ulteriori risultati.
Seppure Search Console è uno strumento datato, che esiste da molto tempo (prima si chiamava Google Webmaster Tools) e con un’ottima guida ufficiale, ancora oggi è facile riscontrare impostazioni configurate male o addirittura non configurate affatto, oppure un utilizzo solo parziale e superficiale da parte di web agency e proprietari di siti che spesso si limitano solo ad inserire la sitemap xml tralasciando tutto il resto.
La conoscenza approfondita di questo strumento è fondamentale per chi vuole diventare SEO Specialist e vuole ottimizzare i siti a livello professionale.
GSC per poter funzionare deve essere attivato sul proprio sito. Il primo requisito per aggiungere e verificare un sito in Search Console è possedere un account Google per poi concludere il processo di attivazione tramite una verifica della proprietà del sito da monitorare.
Dopo aver effettuato l’accesso per indicare il sito da gestire, bisogna premere il tasto “Aggiungi una Proprietà”.
Una volta inserita l’URL del sito web sarà necessario procedere con la verifica. Esistono più opzioni di verifica ed è possibile scegliere l’opzione più adatta alle proprie esigenze e conoscenze tecniche.
La prima opzione di verifica raccomandata da Google Search Console è: Provider del nome di dominio. Questa opzione richiede conoscenze tecniche avanzate sulla gestione dei DNS e consiste nell’aggiunta di un record TXT per poi attendere la propagazione del DNS.
E’ consigliabile quindi per chi è poco esperto, usare i metodi alternativi proposti:
Una volta che una delle opzioni di verifica è stata completata, basterà premere il tasto Verifica per confermare l’attivazione.
A questo punto se il sito è online da diverso tempo, Google Search Console mostrerà i dati che ha raccolto, mentre se il sito online da poco, sarà necessario attendere qualche giorno per ottenere i primi dati.
In questo secondo caso è consigliabile inserire sitemap.xml per somministrare a Google le pagine del nostro sito che vogliamo siano indicizzate e procedere con la configurazione delle varie impostazioni.
Ora che abbiamo aggiunto e verificato il nostro sito in Search Console, entriamo nel vivo di questa guida.
Google Search Console è un tool ricco di report e strumenti per webmaster che ci aiutano a ottimizzare il nostro sito e i suoi contenuti, migliorando il processo di scansione e velocizzando il processo di indicizzazione.
Segue l’elenco completo delle impostazioni, dei report e delle funzionalità di Search Console illustrate in questa guida:
Nel menu relativo alle impostazioni di Google Search Console troviamo le seguenti opzioni:
In questa sezione possiamo attivare gli alert per ricevere email con la segnalazione dei problemi riscontrati.
Risulta molto utile per essere avvisati dei problemi identificati da Google in modo che non perdurino nel tempo senza alcun intervento correttivo.
Permette di scegliere le preferenze in merito al dominio preferito e alla velocità di scansione.
La scelta del Dominio preferito si riferisce alla visualizzazione dell’URL del dominio all’interno dei risultati di ricerca di Google.
E’ possibile non impostare un dominio preferito oppure scegliere per una visualizzazione con il www o senza il www, ma è consigliabile specificare la versione preferita per prevenire eventuali duplicazioni dei contenuti.
La Velocità di scansione è un impostazione da cambiare nel momento in cui si vuole limitare l’attività di scansione di GoogleBot perché sta rallentando il web server per via delle eccessive richieste http.
Se il web server non riscontra rallentamenti è consigliabile lasciare che Google stabilisca la velocità di scansione autonomamente.
Permette di indicare a Google il trasferimento del sito in un altro dominio. Occorre configurare queste impostazioni ai fini di una corretta migrazione SEO per far digerire a Google più velocemente il cambio di dominio.
Per utilizzare lo strumento è necessario seguire questi passaggi:
Le proprietà di Search Console e Google Analytics possono essere collegate tra loro per metterle in condizione di comunicare i dati da una piattaforma verso l’altra (sarà poi possibile vedere i dati nel menu Acquisizione di Google Analytics).
Per attivare il collegamento, dall’elenco dei siti gestiti basterà cliccare sulla proprietà web di Analytics da collegare e cliccare su salva.
Gestisce le autorizzazioni di accesso al webmaster tool, consentendo l’aggiunta o la rimozione di proprietari e utenti con autorizzazione limitata o completa.
Talvolta, in fase di preventivo SEO, chiedo al cliente l’accesso limitato per verificare velocemente lo stato di salute del sito.
Mentre l’accesso completo lo inserisco come requisito del contratto SEO per essere in condizione di configurare i webmaster tools di Google correttamente.
Indica in che modo la verifica a Google Search Console è stata effettuata, i tentativi di verifica e i proprietari verificati.
Qui possiamo associare Search Console con altri account della famiglia Google, tra cui AdWords, Google+ e Youtube.
La dashboard di Search Console ci consente di verificare velocemente lo stato di salute del sito tramite i widget: Errori di scansione, Analisi delle ricerche e Sitemap.
Questi widget fungono da scorciatoie per i report completi che troviamo nel menu di navigazione presente a sinistra.
Questa è la sezione dove Google comunica con i webmaster, dove possiamo visualizzare i messaggi inviati da Search Console.
I messaggi riguardano lo stato di salute del sito, come ad esempio un aumento degli errori 404, problemi di scansione o questioni più gravi come la presenza di malware.
Questa sezione consente ottimizzazione gli snippet del nostro sito nei risultati di ricerca di Google. Presenta le seguenti voci:
Indica i dati strutturati rilevati da GoogleBot all’interno delle pagine del sito monitorato ed eventuali elementi con errori.
I dati strutturati sono informazioni aggiuntive che possono generare i rich snippet nei risultati di ricerca di Google.
Per controllare che sul nostro sito siano implementati correttamente e testare il codice di markup per i rich snippet, con suggerimenti sull’ottimizzazione o individuazione di problemi, Google mette a disposizione lo strumento di test dei dati strutturati.
Le Schede Informative (chiamate anche Schede Multifunzione o Rich Cards) consentono di mostrare in serp uno snippet con maggiori informazioni, per alcune tipologie di contenuti tra cui le ricette, gli eventi, i prodotti, le recensioni e i corsi.
Questa sezione è utile per verificare e correggere eventuali errori presenti nelle schede informative oppure per ottenere suggerimenti per tipo di scheda.
Gli errori o le omissioni nei dati delle schede informative possono limitare l’insieme di funzioni disponibili oppure impedire del tutto l’elaborazione delle schede.
L’evidenziatore di dati è una valida alternativa per aggiungere i dati strutturati alle pagine del proprio sito, senza dover modificare il codice HTML.
Inserita la URL che si desidera e stabilito il tipo di informazioni da evidenziare (articoli, prodotti, eventi, etc), consente di evidenziare i vari elementi della pagina per indicare a Google come si desidera che la pagina venga visualizzata nei risultati di ricerca.
E’ possibile evidenziare una pagina singola o più pagine simili.
In questa sezione vengono elencati eventuali problemi con i contenuti del sito e indicati i miglioramenti HTML da apportare per correggerli.
Cliccando sulle voci evidenziate, compariranno l’elenco delle URL dove GoogleBot ha riscontrato le problematiche principalmente relative alla duplicazione del tag title e del meta description o alla mancanza di questi elementi.
Risolvere i problemi indicati migliorerà l’esperienza utente sul sito e il suo rendimento nei risultati organici.
Indica le pagine AMP indicizzate ed eventuali errori nell’implementazione del protocollo AMP sulle pagine del nostro sito web.
AMP (Accelerated Mobile Pages) è un protocollo open source ideato per fornire pagine web che si caricano velocemente sui dispositivi mobili al fine di migliorare l’esperienza di navigazione degli utenti.
Cliccando su uno specifico errore, sarà possibile vedere l’elenco di URL che lo presentano.
Cliccando poi su una specifica URL sarà possibile ottenere raccomandazioni per correggerlo.
In questa sezione dedicata all’analisi del traffico proveniente da Google verso il nostro sito, troviamo le seguenti voci:
Sezione dedicata all’analisi dei posizionamenti su Google, che ci consente di comprendere il rendimento del sito monitorato per un periodo compreso tra gli ultimi 30 giorni fino ad un massimo di 90 giorni.
Risulta molto utile per conoscere le parole chiave e le singole pagine che guidano traffico verso il nostro sito: infatti per ogni query di ricerca per cui il nostro sito è stato visualizzato in serp, il report ci fornisce dati sui clic e le impressioni ricevute, sul CTR e sulla posizione media nella classifica di Google.
Questi dati sono estremamente importanti perché definiscono un quadro d’insieme sui risultati della campagna SEO.
Inoltre, le query indicate nello strumento costituiscono ottime indicazioni per creare contenuti pertinenti e che ricercano gli utenti.
Una funzione molto utile è la possibilità di filtrare i dati in base alle seguenti dimensioni:
Infine, tramite il collegamento a Google Analytics, è possibile abbinare a questi dati le metriche di acquisizione, comportamento e conversione.
E’ importante precisare che questo report non può sostituirsi all’uso di un software specifico per il controllo del posizionamento (come ad esempio il Rank Tracker della SEO PowerSuite), perché le query che vengono restituite sono selezionate in base al numero di impression generate.
Sezione dedicata alla link building, che ci consente principalmente di comprendere la popolarità del sito monitorato e il numero di link totali che il nostro dominio riceve.
Seppure non è paragonabile neanche lontanamente ad un tool di link intelligence (come Ahrefs) può risultare comunque utile.
Il report Chi utilizza più link fornisce l’elenco dei domini che presentano almeno un backlink verso il nostro sito.
Se ci rendiamo conto di ricevere un numero di backlink eccessivo da un dominio di scarsa qualità e che potrebbe essere fonte di penalizzazioni, possiamo contattarlo chiedendo la rimozione dei backlink oppure sconfessarlo il disavow tool.
Il report I tuoi contenuti con più link indica le pagine del nostro sito che ricevono il maggior numero di backlink. E’ importante assicurarsi che siano le nostre pagine strategiche.
Infine il report Come sono collegati i tuoi dati mostra l’elenco delle anchor text dei backlink del nostro sito.
Se riceviamo un eccessivo numero di anchor di tipo transazionale, è meglio correre ai ripari per evitare ripercussioni da parte di Google Penguin.
Elenco di pagine del nostro sito che ricevono più link interni. Cliccando sulla specifica pagina di destinazione verrà mostrata la lista delle URL che la linkano.
Anche in questo caso è consigliabile accertarsi che le pagine con maggior numero di link siano le pagine strategiche.
Se il nostro sito viene penalizzato manualmente dal team antispam di Google, in questa sezione troviamo il messaggio con le cause della penalizzazione e le raccomandazioni per la risoluzione.
Idealmente questa sezione deve presentare esclusivamente la frase: Nessun intervento manuale antispam trovato.
Qualora il sito monitorato è stato penalizzato è consigliabile valutare un servizio di depenalizzazione per uscire dalla penalizzazione e recuperare il traffico perduto.
Questa sezione, fondamentale per la SEO internazionale per siti multilingua, consente di verificare la corretta implementazione del Tag hreflang e di specificare il target geografico di riferimento dei nostri contenuti affinché siano mostrati ad utenti pertinenti.
Le impostazioni relative al Paese è possibile modificarla solo per i domini con estensione generica (.com, .net, etc) mentre per i domini con estensione in lingua (.it, .fr, etc) il paese sarà associato di default.
Indica eventuali problemi di usabilità sui dispositivi mobili del nostro sito.
I problemi più tipici riguardano l’utilizzo di flash nelle pagine mobile, testo troppo piccolo da leggere, contenuti più grandi rispetto allo schermo, etc.
I siti web con problemi di usabilità sui dispositivi mobili potrebbero non avere una buona posizione nei risultati di ricerca di Google.
Sezione relativa all’indicizzazione del nostro sito. Presenta le seguenti voci:
Stato totale dell’indicizzazione del sito monitorato, dove è possibile vedere il numero totale di URL indicizzate, Bloccate dai robot o rimosse dall’indice.
Elenco di URL la cui scansione risulta bloccata da direttive Disallow presenti nel file Robots.txt.
Cliccando sull’host che presenta il problema è possibile ottenere l’elenco delle risorse bloccate.
Solitamente le problematiche riguardano immagini, file css e javascript bloccati da direttive non corrette presenti nel file Robots.txt.
Consente di richiedere la rimozione temporanea di specifiche URL dai risultati di ricerca di Google a condizione che la pagina non sia più presente e restituisca un errore 404 o 410.
Il contenuto sarà rimosso per 90 giorni e durante questo periodo sarà possibile chiedere la reinclusione nei risultati.
E’ consigliabile utilizzare questo strumento soltanto in mancanza di alternative.
Vi ricordo che è possibile non mostrare un URL nei risultati di ricerca di Google tramite direttiva noindex del meta robots oppure impedendo la scansione tramite direttiva Disallow nel file robots.txt.
Sezione relativa alle attività di scansione del nostro sito. Presenta le seguenti voci:
Restituisce gli errori di scansione riscontrati da GoogleBot durante le scansioni degli ultimi 90 giorni indicando il tipo di errore, la sua gravità e le URL dove si presenta (con possibilità di scaricare l’elenco completo).
Risulta molto utile in fase di SEO audit per verificare che non vi siano problemi derivanti da una migrazione precedentemente non gestita.
In merito alla classificazione degli errori, questi vengono suddivisi in:
Ignorare questi errori potrebbe significare nel tempo un peggioramento nel posizionamento sui motori di ricerca.
Spesso per risolvere questi errori è sufficiente implementare il redirect 301 tramite htaccess.
Le statistiche relative all’attività di scansione di GoogleBot negli ultimi 90 giorni con grafici che rappresentano il numero di pagine scansionate (Pagine sottoposte a scansione giornalmente), i dati scaricati (Kilobyte scaricati giornalmente) e il tempo trascorso per il download di una pagina (in millisecondi).
Questa funzionalità consente di verificare come Google esegue il rendering delle pagine del nostro sito web, di visualizzare le intestazioni HTTP e le informazioni che GoogleBot recupera non appena effettua la scansione di una pagina.
Una volta inserita la URL da scansionare, le opzioni che possiamo scegliere sono:
E’ inoltre possibile chiedere l’indicizzazione per delle pagine analizzate cliccando su Richiesta di indicizzazione.
Cliccando su Richiesta di indicizzazione è inoltre possibile chiedere l’indicizzazione per delle pagine analizzate, stimolando il processo di indicizzazione di un sito su Google.
Visualizza il contenuto attuale del file Robots.txt e indica se vi sono direttive Disallow che bloccano l’accesso a specifici contenuti del sito.
Il file Robots.txt è fondamentale, poiché gli spider dei motori di ricerca prima di scansionare un sito verificano le direttive presenti in questo file per stabilire quali parti del sito possono scansionare.
E’ necessario, pertanto, controllare che il file robots.txt sia presente e che impartisca le giuste direttive.
Questo strumento permette di testare le varie configurazioni per trovare quella più adatta al proprio sito e le URL per controllare come i vari user-agent di Google analizzano i contenuti per la scansione.
In questa sezione possiamo inviare, testare e analizzare le sitemap xml del nostro sito.
E’ consigliabile suddividere le Sitemap xml da inserire per tipologia di contenuti (pagine, immagini, video, etc) e poi inviarle tramite lo strumento.
Completato il download da parte di Google Search Console e l’elaborazione delle sitemap xml incluse, viene restituita una pagina con le statistiche di lettura.
E’ molto importante approfondire gli eventuali problemi rilevati e le pagine inviate ma non indicizzate.
Queste pagine possono essere sintomo di un problema interno al sito che se non gestito in maniera tempestiva, potrebbe generare problemi più gravi con conseguente ripercussione sull’indicizzazione e sul posizionamento nei motori di ricerca del sito.
Se vuoi avere maggiori informazioni sulle sitemap in formato xml leggi l’articolo: Come Creare una Sitemap xml per Google.
Consente di configurare i parametri all’interno delle URL del nostro sito aiutando Google ad interpretarli per una corretta indicizzazione delle pagine.
Questo strumento viene spesso utilizzato nella SEO per E-commerce, poiché questa tipologia di siti tende ad avere molte URL parametriche per via delle varie modalità di ordinamento dei prodotto e la presenza di filtri.
I parametri nelle URL sono stringhe di caratteri che indicano la presenza di contenuti dinamici, ovvero generati prelevando informazioni dalle tabelle del database.
L’individuazione delle URL parametriche è piuttosto semplice poiché queste URL presentano il valore “?” di norma.
Cliccando su Configura i parametri degli URL è possibile infatti indicare a GoogleBot come dovrebbe gestire ogni parametro per evitare duplicazioni di contenuti, optando per lasciare decidere a GoogleBot oppure indicando il significato e il ruolo svolto all’interno delle URL individuate.
E’ consigliabile utilizzare questa funzione soltanto se si conosce bene il funzionamento dei parametri e il loro scopo.
Diversamente è consigliabile acquistare una consulenza SEO tecnica, poiché l’errata gestione dei parametri URL potrebbe avere grosse ripercussioni sulla corretta indicizzazione del vostro sito.
Inoltre spesso è possibile evitare di utilizzare questo strumento implementando correttamente sul proprio sito il rel canonical.
Search Console ci segnala eventuali malware rilevati nel sito web monitorato per consentirci una rimozione veloce.
Elenco di tools e link diretti ai servizi:
Strumento di test per i dati strutturati: tool utile per verificare la corretta implementazione dei dati strutturati e la corretta interpretazione da parte di Google e quindi la possibilità di generare rich snippet.
Assistenza per il markup: inserita una URL di partenza questo strumento ci guida nella corretta implementazione del markup dei dati strutturati.
Strumento di test per il markup delle email: permette di convalidare i dati strutturati presenti nel contenuto HTML di un messaggio email.
Google My Business: verifica gratuitamente che la tua attività abbia un aspetto accattivante sulla Ricerca Google, su Google Maps e Google+.
Google Merchant Center: l’account dove caricare i feed dei prodotti per le campagne Google Shopping.
PageSpeed Insights: link a tool che analizza le web performance delle pagine web e fornisce consigli utili sull’ottimizzazione della velocità.
Ricerca personalizzata: per utilizzare Google come motore di ricerca interno per il proprio sito.
Google Domains: il servizio di Google per registrare un nome dominio e realizzare siti.
Webmaster Academy: corso ufficiale degli Strumenti per Webmaster che fornisce indicazioni per creare un sito web perfetto con contenuti mirati e fare in modo che sia visibile nei risultati della Ricerca di Google.
Ora che hai letto la guida a Google Search Console avrai compreso come risulta fondamentale sia per le configurazioni che ci mette a disposizione sia per i dati analitici che ci fornisce sullo stato di salute del nostro sito.
Installa GSC sul tuo sito e sei hai dubbi o domande in merito utilizza i commenti senza indugio!
Ottieni l’accesso a guide, strategie e tutorial esclusivi che non condivido da nessun’altra parte.
Sottoscrivo la Privacy Policy di Valentino Mea. Sottoscrivendo acconsenti a ricevere informazioni e offerte riservate. Rispettiamo la tua privacy, i tuoi dati sono al sicuro e non saranno mai ceduti a terzi.
Vuoi sviluppare un business online di successo o vuoi essere formato anche tu ad alti livelli?
Copyright © 2013 - 2023 · Valentino Mea Srls rating 5.0/5 su 22 recensioni · C.F. / P.iva: 04373930611 · Privacy Policy · Cookie Policy · Sitemap · All rights reserved
Lascia un commento