Vuoi uscire da una penalizzazione di Google? Il tuo sito è stato penalizzato da Panda, da Penguin o dal Medic Update? In questa guida definitiva, approfondiamo tutte le tematiche legate alle penalizzazioni algoritmiche e manuali, che Google riserva ai siti che trasgrediscono le sue linee guida o che operano con pratiche SEO scorrette.
Per approfondire meglio l’argomento penalizzazioni, ho suddiviso la guida in 7 parti:
L’obiettivo è cercare di fornire una metodologia il più lineare possibile su come diagnosticare, verificare e uscire da una penalizzazione, anche se l’applicazione dipende da caso a caso.
Una penalizzazione di Google è un effetto negativo inflitto alla visibilità e al posizionamento di un sito nei risultati organici, in seguito ad aggiornamenti apportati agli algoritmi di ricerca di Google.
Se il traffico organico del tuo sito diminuisce improvvisamente e vedi un corrispondente declino dei posizionamenti, c’è una buona possibilità che tu sia stato penalizzato da Google.
Google, in genere, penalizza i siti in due modi:
In entrambi i casi sarà necessario trovare la causa principale del declino. Il primo passo da fare è quindi individuare se siamo stati vittima di una penalizzazione algoritmica o manuale.
Prima di addentrarci nell’argomento penalizzazioni, vediamo un po’ di terminologia che ci aiuterà a comprendere meglio i paragrafi successivi.
Partiamo dal presupposto che c’è differenza tra ban, azioni manuali e update algoritmici, anche se spesso questi termini vengono erroneamente usati come sinonimi anche dagli addetti ai lavori.
Volendo proporre una tassonomia degli aggiornamenti algoritmici e delle penalizzazioni, è possibile distinguere tra 5 categorie:
Con update di sistema si intendono modifiche alle strutture fisiche (ad esempio migrazione a nuovo data center) e modifiche ai meccanismi interni che regolano il funzionamento dei diversi processi del motore di ricerca (ad esempio scansione, indicizzazione, comprensione della query, etc.).
Un update di sistema può comportare oscillazioni nei posizionamenti, tuttavia, dovrebbe essere difficilmente percepito.
Per update algoritmici si intendono le modifiche agli algoritmi interni di Google che tipicamente incidono sui risultati di ricerca presentati e quindi sui posizionamenti.
Gli aggiornamenti algoritmici comportano oscillazioni anche eclatanti nei risultati di ricerca come nel caso di Penguin e Panda.
Quando ci si rende conto di aver perduto visibilità, ma non si ricevono messaggi di azioni manuali su Google Search Console, è possibile che un update algoritmico (anche detto impropriamente penalizzazione algoritmica) abbia agito a nostro sfavore.
Per data refresh ci si riferisce ad un aggiornamento dei dati di un algoritmo oppure ad un aggiornamento dell’indice di Google (oggi costante e quindi impercettibile, in passato periodico).
I refresh dei dati possono avere ripercussioni in SERP da poco percettibili a molto evidenti, come nel caso degli aggiornamenti di Penguin.
Il refresh dei dati include anche gli aggiornamenti dell’indice che avvenivano soprattutto ai primordi di Google.
Si parla invece di azione manuale, quando un sito subisce un calo di visibilità su Google e il declassamento è determinato da intervento umano.
Una penalizzazione manuale può riguardare un insieme di parole chiave, una sezione del sito o tutto il sito. L’azione manuale si palesa in cali di posizionamenti netti.
Con il termine ban ci si riferisce alla rimozione integrale di un sito dall’indice di Google, in via definitiva o temporanea, per intervento umano. Google si riserva, infatti, di rimuovere dal proprio indice i siti che violano la legge oppure in gravi casi di spam.
“Il mio sito è stato bannato da Google, cosa devo fare?”
I ban sono sempre frutto di azione manuale e comportano una de-indicizzazione integrale del proprio sito web.
Pertanto devi rendere il tuo sito conforme alle linee guida di Google, il quale nella sua documentazione, riporta alcuni esempi di violazione grave delle proprie norme di qualità.
Ora che conosci le terminologie più usate dagli esperti SEO in tema di penalizzazioni, vediamo come Google si è evoluto nel corso degli anni.
Partiamo con la Google Dance, ovvero un aggiornamento periodico degli indici. Il fenomeno è rimasto nella storia, in quanto era molto particolare vedere il proprio sito oscillare da una posizione all’altra nelle SERP.
Il primo aggiornamento a scatenare il panico è del Settembre 2002 al quale non è stato attribuito alcun nome. A questo primo update fa seguito un aggiornamento denominato “Boston”.
La Google Dance durava dai 6 agli 8 giorni perché ogni data center per aggiornarsi veniva spento e successivamente all’accensione si caricava un nuovo indice.
Nell’Aprile 2003 nasce Cassandra che in particolare colpì i backlink provenienti dallo stesso dominio o da domini dello stesso proprietario o della stessa Classe C e i link nascosti.
A Maggio dello stesso anno entra in scena Dominic, mentre a Giugno l’update Esmeralda. Entrambi sono stati semplici aggiornamenti degli indici.
L’era della Google Dance termina a Luglio 2003 con Bart (nome dato dagli ingegneri di Google, ma alcuni chiamano questo aggiornamento Fritz).
L’evoluzione degli update mensili in “update continui”, segna la fine della Google Dance.
Con gli update continui, parte il fenomeno del Everflux che consiste nell’oscillazione continua, quasi impercettibile degli update che avviene inizialmente su base giornaliera.
Florida e il successivo Austin segnano la fine della SEO vecchio stile: link farms, tag nascosti, keyword stuffing, testo invisibile non hanno più senso. In particolare Florida è ricordato dalla maggior parte dei SEO come l’update più rilevante fino a quel tempo.
Dagli aggiornamenti all’indice, tipici della Google Dance, si passa quindi agli update algoritmici che toccano singoli aspetti specifici del meccanismo di funzionamento del motore.
In particolare Gilligan è, a detta di Matt Cutts, un aggiornamento relativo soltanto alla valutazione del PageRank basato su un punteggio definito per i backlink.
Nel periodo tra il 2003 e il 2005 solo Big Daddy si distingue dagli altri update, in quanto aggiornamento riguardante modifiche strutturali ai processi di scansione e indicizzazione (per maggiori informazioni puoi leggere l’articolo Come funziona Google), ma che comunque ha prodotto delle oscillazioni temporanee dovute direttamente al dispiegamento.
Il quinquennio tra il 2005 e il 2010 è una vera e propria rivoluzione di Google, il quale passa all’età moderna.
In questo periodo, infatti, avvengono le maggiori trasformazioni sull’interfaccia di Google: Universal Search, Google Suggest, Real Time Search, Google Places e le altre modifiche di fine 2010 come il “rel nofollow” e il rel canonical.
Tuttavia gli update algoritmici non mancano, tra cui Vince che favorisce l’autorità e il trust di un brand e May Day che, invece, impatta sulle ricerche di parole chiave long tail.
L’indice supplementare vede la fine dei propri giorni e termina con l’introduzione di Caffeine, il nuovo processo di indicizzazione che prevede un indice unico e molto vasto.
Dopo un 2010 all’insegna di ulteriori aggiornamenti all’interfaccia, Google si concentra nuovamente alla battaglia contro lo spam.
Nel periodo dal 2011 e il 2013 avviene l’evoluzione di Google così come lo conosciamo oggi: viene introdotto Panda (ribattezzato Farmer da Danny Sullivan) che colpisce principalmente i contenuti scarni e di bassa qualità e Penguin che invece si focalizza sui profili di link “ottimizzati”.
Entrambi costituiscono le principali innovazioni, tanto moderne quanto ancora poco conosciute.
Sempre nel 2012 esce l’update EMD (Exact Match Domain), inizialmente limitato alle query in Inglese, che leva importanza ai domini con la parola chiave all’interno e viene introdotto Venice che dà spazio ai risultati locali, mentre il Knowledge Graph prende vita e viene espanso.
Nel Settembre 2013 viene annunciato Hummingbird, il nuovo sistema di funzionamento dei meccanismi interni al motore che a detta di Amit Singhal è probabilmente la più grande opera di riscrittura dell’algoritmo di ricerca dal 2001.
Tuttavia, anche gli aggiornamenti all’interfaccia fanno la loro parte in questo periodo. Solo nel 2011 vengono introdotti Schema.org e i microdati, nasce Google+, i sitelink nei risultati di ricerca vengono migliorati.
A partire dal 2011 alcune query degli utenti vengono criptate determinando le prime keyword not provided.
Le keyword not provided sono aumentate in modo esponenziale dal momento in cui, nel 23 Settembre 2013, è stato annunciato da Google che tutte le ricerche sarebbero passate sotto protocollo Https.
L’algoritmo RankBrain è andato online nell’Aprile 2015, ma è stato presentato al mondo solo nell’Ottobre dello stesso anno e da allora è diventato il terzo segnale di ranking più importante.
RankBrain è una parte importante dell’algoritmo di Google, che utilizza l’intelligenza artificiale per conoscere gli utenti e come rispondono ai risultati presentati.
In maniera semplicistica, il suo scopo consiste nell’interpretare le query, ordinare i risultati di ricerca in tempo reale e consentire loro di adattarsi al meglio all’intento di ricerca degli utenti.
Quando in Google Analytics ci si trova davanti ad un grafico che evince un calo di traffico organico, è difficile comprendere esattamente a cosa sia dovuto.
Sarà, infatti, necessario incrociare i dati provenienti da diversi tool prima di poter diagnosticare una penalizzazione. Le verifiche che suggerisco sono le seguenti:
Questi sono i check di base che svolgo durante il servizio di verifica Penalizzazione Google.
Durante questa verifica occorre accertarsi che il server non abbia avuto dei down o comunque che il sito sia stato sempre raggiungibile. Possono capitare problemi di connessione al server, che potrebbe quindi non erogare le pagine del sito.
In ottica di prevenzione, esistono diversi servizi gratuiti che consentono il monitoraggio specifico dei tempi di uptime del nostro server.
Tra questi, mi sento di consigliare, Uptimerobot.com un servizio gratuito e semplice da usare. Con questo alert ci assicuriamo contro i cali di traffico dovuti a down dei server.
Questa secondo step consiste nel controllare che il codice di tracciamento di Google Analytics sia correttamente implementato.
Durante le modifiche ad un sito, può capitare che lo script di GA venga rimosso da alcune pagine, pertanto questa è una delle prime verifiche da fare.
Per accertarsi che lo script di GA non sia saltato solo su alcune pagine, è utile fare un crawling completo del sito da analizzare. Per far questo ci si può servire di Screaming Frog, di Visual SEO Studio o di Xenu.
Personalmente utilizzo Screaming Frog impostando dei filtri personalizzati (Custom Search) che consentono di verificare l’effettiva presenza del codice di tracciamento di Google Analytics e/o di Google Tag Manager.
Utilizzando il confronto periodo su periodo di Google Analytics possiamo verificare l’effettiva diminuzione di traffico organico in percentuale.
Durante questa analisi bisogna stare molto attenti, soprattutto se il business del sito che analizziamo ha delle stagionalità tali da non fornire una visione chiara.
Proprio per rimuovere il fattore stagionale, può avere senso confrontare i dati anno su anno e una quasi corrispondenza su due periodi diversi è una forte indicazione che le nostre impressioni erano corrette: non abbiamo subito alcuna penalizzazione, ma è solo il trend stagionale!
Il primo metodo per individuare se la perdita di traffico è legata ad alcune parole chiave, consiste nel monitorare i propri posizionamenti con uno strumento apposito.
Occorre, naturalmente, avere un progetto in corso con un set di keyword ben definito e di cui si ha uno storico per svolgere gli opportuni confronti.
Personalmente utilizzo il Rank Tracker della SEO PowerSuite, ma esistono molteplici altri strumenti a disposizione: SEMrush, RankRanger, Advanced Web Ranking, etc.
I vantaggi legati all’utilizzo di questi strumenti sono:
Gli svantaggi legati all’utilizzo di questi strumenti sono:
La visibilità complessiva di un sito può essere misurata utilizzando strumenti che si servono di indici proprietari per monitorare visibilità e posizionamenti organici, come Sistrix o SEMrush.
Personalmente utilizzo SEMrush il quale è aggiornato su base settimanale e la visibilità organica di un sito viene calcolata in base ai posizionamenti rilevati su Google, ponderati secondo i relativi volumi di ricerca.
Naturalmente gli strumenti indicati sono tutti a pagamento, ma sono importanti per analizzare la visibilità e i posizionamenti di un sito e per capire se c’è stato un cluster di parole chiave specifico che ha comportato la perdita di traffico.
I vantaggi legati all’utilizzo di questi strumenti sono:
Gli svantaggi legati all’utilizzo di questi strumenti sono:
Partendo dal presupposto che abbiamo circoscritto il problema al traffico organico, dobbiamo verificare se ci sono pagine o sezioni che hanno contribuito maggiormente alla perdita di traffico.
Il report “Pagine di destinazione di Google Analytics” ci consente di visualizzare i dati di traffico per ciascuna pagina del sito analizzato. I vantaggi legati all’utilizzo di questi strumenti sono:
Gli svantaggi legati all’utilizzo di questi strumenti sono:
Infine, il report Analisi delle ricerche di Google Search Console ha una sezione relativa alle ″Pagine principali″ che permette di incrociare i dati con quelli di Google Analytics per svolgere ulteriori analisi.
Dopo un’attenta panoramica sugli update di Google e sulle metodologie per verificare se siamo stati effettivamente penalizzati, vediamo ora il motivo per cui siamo stati penalizzati e come uscire da una penalizzazione.
Vedremo nel dettaglio prima le penalizzazioni manuali, poi le principali penalizzazioni algoritmiche ed infine le richieste di riconsiderazione.
Una penalizzazione manuale si verifica nel momento in cui riceviamo una notifica nella sezione Azioni manuali di Google Search Console. Ad oggi esistono 11 tipi di messaggi di azione manuale che possiamo visualizzare in GSC:
Le penalizzazioni manuali possono essere plurime e quindi un sito può presentare anche più di un’azione manuale rivolta verso comportamenti negativi diversi o addirittura anche uguali.
Infine, è importante sapere che le penalizzazioni manuale hanno una data di scadenza, ma è verosimile pensare che se non si è fatto nulla per rimediare all’azione manuale, questa colpirà nuovamente il sito nel breve termine.
Approfondiamo ora nel dettaglio ogni singola azione manuale, per uscire dalla penalizzazione o più semplicemente per prevenirla.
Può accadere che il proprio sito sia stato preso di mira da hacker che, agendo su vulnerabilità lato codice o server, sono riusciti a creare contenuti finalizzati allo spam.
In questi casi Google si riserva solitamente il diritto di filtrare dalle classifiche le pagine in questione o segnalare in SERP il sito come compromesso.
Google ha dedicato la sezione Problemi di sicurezza di Google Search Console a questo tipo di problemi, che consente di individuare in breve se e quali sono le vulnerabilità presenti sul nostro sito, entrando nel dettaglio di eventuale codice malevolo iniettato.
Google fornisce inoltre una lista di indicazioni utili pensate per i proprietari o webmaster di siti compromessi alla pagina: https://developers.google.com/web/fundamentals/security/hacked/.
Forum e blog sono spesso presi di mira dagli spammer: profili utente e post signature sono le modalità più semplici per spammare. Anche i commenti sui blog, tuttavia, rappresentano una fetta importante dello spam generato dagli utenti su aree pubbliche di un sito.
E’ fondamentale quindi prevenire il crearsi e il ripetersi di episodi di spam generato dagli utenti, attraverso diverse azioni, tecniche e strumenti che consentono di fare questo.
Come soluzione propongo la pulizia dai contenuti di carattere spam sulle aree pubbliche del sito e la prevenzione verso nuovi episodi di spam mediante una più attenta moderazione o usando strumenti antispam come ad esempio Akismet per WordPress.
In presenza di questa segnalazione è possibile agire in base alla responsabilità nei confronti del sito: il proprietario del servizio dovrà monitorare lo spam, prevenirlo e rimuoverlo mentre il proprietario del sito dovrà segnalare lo spam al provider di web hosting o utilizzare un altro servizio.
Google affronta il problema dei web hosting gratuiti contenenti spam, suggerendo una serie di azioni e raccomandazioni al gestore del servizio e al proprietario del sito web.
Le raccomandazioni sono visionabili alla pagina https://support.google.com/webmasters/answer/2583235.
Il markup di Schema.org può essere un ottimo modo per migliorare la comprensione del contenuto da parte dei motori di ricerca, l’indicizzazione e la visibilità nella ricerca organica come nel caso dei rich snippet.
Tuttavia se l’implementazione dei dati strutturati non avviene seguendo le linee guida di Google, possiamo ricevere una penalizzazione algoritmica o manuale che può causare la rimozione dei rich snippet in merito al tuo sito nei risultati di ricerca.
Per uscire da questa penalizzazione dovrai assicurati che il markup del tuo sito rispetti le linee guida relative ai rich snippet. Dovrai inoltre analizzare il rapporto Dati strutturati di GSC, verificare la presenza di errori ed eventualmente risolverli.
Google tende a colpire in modo sistemico i siti che ricevono link a scopo di migliorare il posizionamento. Questa azione manuale è in linea di massima sitewide, colpendo in particolare chi hai implementato tecniche di link building sbagliate.
Chiedendo la rimozione dei backlink ritenuti di bassa qualità o la svalutazione mediante attributo NoFollow, si potrà risolvere questa penalizzazione. Qualora non si riesca ad eliminare o svalutare tutti i backlink tossici, si dovrà procedere con il Disavow Tool.
Questa segnalazione avviene quando un sito presenta contenuti di bassa qualità, copiati o automatici, che non offrono alcun valore aggiunto. Altrettanto problematici sono i contenuti prodotti serialmente al solo scopo di inserirvi link di affiliazione.
Per una più rapida individuazione del problema, è consigliabile studiare le tematiche relative a:
In questo caso per risolvere la penalizzazione si dovrà agire sul contenuto, rimuovendo gli elementi oggetto di penalizzazione e creando del contenuto con valore aggiunto al loro posto.
I reindirizzamenti lato codice sono del tutto legittimi, se hanno lo scopo di garantire una user experience migliore. Ad esempio, è sensato e legittimo reindirizzare un utente ad una versione del sito in lingua sfruttando il suo IP di provenienza mediante redirect lato codice.
Questa penalizzazione riguarda invece l’erogazione di contenuti differenti a diversi utenti con l’obiettivo di manipolare il posizionamento (per maggiori informazioni puoi leggere: Cloaking vediamo cos’è e in che casi Google lo tollera).
Possiamo uscire da questa penalizzazione agendo sul server in modo da ripristinare il sito e mostrando un contenuto univoco a tutti gli utenti.
Questa azione manuale pone l’accento sui link outbound, con l’intenzione di penalizzare le cattive pratiche di Link Building facendone ricadere le responsabilità oltre che sui destinatari, anche ai fornitori.
Tuttavia, un’importante differenza è data dalla possibilità che questa azione manuale possa anche essere solo parziale, mentre l‘azione manuale vista precedentemente è in linea di massima sitewide, colpendo in particolare chi di fatto ha tratto vantaggio dai link.
Per risolvere la penalizzazione si dovranno quindi rimuovere i link che violano le linee guida di Google, rendere i link nofollow o reindirizzarli verso una pagina intermedia bloccata dal robots.txt.
Oggetto di questa penalizzazione sono quei siti che usano tecniche aggressive di spam, tra cui la generazione automatica e la copia di contenuti, il cloaking e altre gravi violazioni alle norme sulla qualità di Google.
In questo caso per uscire dalla penalizzazione bisogna ripulire il sito da tutte le pratiche scorrette rilevate.
Questa azione manuale, introdotta da Google nel Novembre 2013, si presenterà se una o più immagini presenti sul verticale ″Google Images″ non corrispondono a quelle presenti sulla pagina di provenienza del nostro sito.
Questa penalizzazione è determinata talvolta anche da determinati sistemi di “anti-hotlinking” sfruttati da diversi siti per evitare che le immagini girino liberamente sul web appesantendo di richieste i propri server e a discapito dei diritti di copyright.
La soluzione a questa penalizzazione è assicurarsi una corretta corrispondenza tra immagini del sito ed immagini presenti in SERP.
Google elenca nello specifico una serie di possibili tecniche per nascondere del testo e riempire le pagine del sito di keyword.
Il sito verrà quindi penalizzato se presenta testo nascosto visibile solo lato codice e quando i testi sono farciti di parole chiave per aumentarne la densità nella pagina.
Solitamente questa penalizzazione accade quando si acquistano servizi SEO low cost oppure ci si affida a copywriter che pensano ingenuamente che sia sufficiente ripetere la stessa parola chiave tante volte per posizionarsi.
Per risolvere la penalizzazione è sufficiente rimuovere il testo nascosto nelle pagine in cui è stato inserito ed evitare similitudini o ripetizioni nei meta tags, nei tag heading, negli attributi alt delle immagini e in generale nei testi.
Le penalizzazioni algoritmiche sono automatiche e non necessitano quindi dell’intervento umano. Il declassamento può comportare la visibilità dell’intero sito, di una sezione o di una sola pagina, proprio come avviene per le penalizzazioni manuali.
Per gli update algoritmici, però, non riceviamo segnalazioni su Google Search Console e i motivi della perdita di posizionamenti possono dipendere da diversi fattori, dove tra i più comuni vi è la violazione delle norme indicate nelle linee guida per i webmaster.
In questa guida, ci concentriamo sugli update algoritmici più famosi: Panda e Penguin.
Inizialmente conosciuto come aggiornamento Farmer, termine che indica quei siti che aggregano, copiandoli, numerosi contenuti provenienti da altre fonti con l’unico scopo di migliorare la propria classificazione, l’algoritmo Panda è stato lanciato a Febbraio del 2011 negli USA con lo scopo di premiare i contenuti di qualità.
Arriva ufficialmente in Italia, o meglio per i risultati in italiano così come per altre lingue, il 12 agosto dello stesso anno.
La penalizzazione si presenta se il sito possiede contenuti di scarsa qualità: duplicati, generati automaticamente, troppo corti, articoli spinnati, advertising eccessivo, etc.
Google Panda ha colpito molti siti in maniera determinante e per sapere come recuperare posizioni dopo una forte penalizzazione, è necessario passare in rassegna i propri contenuti e verificarne l’originalità, la completezza e soprattutto la qualità.
Per uscire da una penalizzazione da Google Panda, occorre quindi ripulire il sito dai contenuti di bassa qualità e creare contenuti utili per gli utenti, ben scritti, unici e informativi, seguendo le linee guida per i webmaster di Google.
Google stesso fornisce un elenco di domande a cui rispondere per verificare che il proprio sito rispetti le linee guida indicate e che sintetizzo di seguito:
Google Penguin è stato introdotto nell’Aprile del 2012 principalmente con lo scopo di penalizzare i siti che utilizzano backlink innaturali, ma non solo.
L’obiettivo è punire i backlink che mirano a manipolare il PageRank o il posizionamento tra i risultati di ricerca in favore di un determinato sito web.
In tale contesto, figurano ovviamente gli spammers, i programmi e i servizi automatizzati per generare collegamenti in entrata, la compravendita di spazi pubblicitari, l’eccessivo scambio di link, etc. Insomma, tutte tecniche evidentemente innaturali.
Non solo, accanto a tali attività invasive e da tempo penalizzate, si affiancano anche pratiche meno esplicite, a volte attuate persino in maniera inconsapevole.
Possono così entrare nel mirino di Penguin anche i link sotto forma di crediti inseriti nel footer di più pagine web o il massiccio uso di collegamenti ottimizzati, aggiunti come firma del proprio profilo pubblico su un forum.
Per prevenire e non essere colpiti negativamente da questo algoritmo bisogna tentare di:
Se riconosci nelle tue strategie di Link Building alcune delle pratiche appena illustrate, è giunto il momento di prendere in considerazione l’analisi dei backlink.
Se invece si è già stati penalizzati, per recuperare la penalizzazione generata da Penguin bisogna eliminare i backlink innaturali sia manualmente che servendosi del Disavow Tool (lo strumento ufficiale di Google, per il cui utilizzo è consigliabile rivolgersi ad un esperto SEO o comunque leggere le linee guida di Google sul rifiuto dei link).
La richiesta di riconsiderazione è una comunicazione che inviamo a Google per chiedere che il nostro sito web sia valutato da parte di un addetto, al fine di revocare una penalizzazione.
Solo nel caso di penalizzazioni manuali, dopo aver individuato gli elementi “nocivi” e aver provveduto a risolvere il problema (Google, come abbiamo visto, fornisce le informazioni necessarie sul pannello di Google Search Console) è possibile inviare una richiesta di riconsiderazione.
Quando si scrive una richiesta di riconsiderazione è utile dimostrare la propria buona fede e la genuinità del proprio operato, spiegando:
Quando si forniscono informazioni sugli interventi realizzati, Google apprezza che si linki ad un documento con tutti i dettagli del caso. Per ragioni di sicurezza, inoltre, è sempre preferibile che il documento linkato sia su Google Drive.
Le risposte fornite in prima battuta dal team responsabile dello spam di Google sono standard e vanno considerate solo come una conferma di ricezione della richiesta di riconsiderazione.
Dopo una scrematura di massima volta a rimuovere le richieste insensate, tutte le richieste di riconsiderazione sono passate al vaglio per capire se esistono le condizioni perché sia revocata la penalizzazione.
Terminata questa fase si riceve una comunicazione con l’esito, che può consistere in una risposta:
In merito alle tempistiche, non vi è certezza sulle risposte in quanto accade, soprattutto con particolari carichi di lavoro, che il team antispam di Google non sia in grado di far fronte in tempi celeri alle richieste.
Tuttavia, una risposta non dovrebbe richiedere più un paio di mesi.
Come abbiamo appena visto, diagnosticare una penalizzazione inflitta da Google può essere un’attività lunga e complessa.
Se la diagnosi riguarda un sito di cui siamo proprietari o di cui abbiamo curato i servizi SEO, le cose si complicano perché il nostro ego potrebbe essere il primo ostacolo da superare.
Un calo improvviso e inspiegabile del traffico organico può essere disastroso per il proprietario di un sito, ma la buona notizia è che si può recuperare da qualsiasi penalizzazione di Google.
Per dubbi, domande o approfondimenti sulle penalizzazioni, non esitare ad utilizzare i commenti. Se, invece, il tuo sito è stato penalizzato e vuoi un supporto professionale, non esitare a contattarmi.
Ottieni l’accesso a guide, strategie e tutorial esclusivi che non condivido da nessun’altra parte.
Sottoscrivo la Privacy Policy di Valentino Mea. Sottoscrivendo acconsenti a ricevere informazioni e offerte riservate. Rispettiamo la tua privacy, i tuoi dati sono al sicuro e non saranno mai ceduti a terzi.
Vuoi sviluppare un business online di successo o vuoi essere formato anche tu ad alti livelli?
Copyright © 2013 - 2023 · Valentino Mea Srls rating 5.0/5 su 22 recensioni · C.F. / P.iva: 04373930611 · Privacy Policy · Cookie Policy · Sitemap · All rights reserved
Lascia un commento