È una situazione in cui purtroppo ci possiamo ritrovare tutti: un (brutto) mattino apriamo Search Console e scopriamo che il traffico da Ricerca Google è diminuito. E per quanto ci impegniamo, ragioniamo, interveniamo e ci arrovelliamo, il nostro sito continua a perdere gradualmente traffico organico. Da cosa dipende questa improvvisa e lenta discesa? In nostro supporto arriva Google, che presenta una serie di consigli per analizzare i motivi che possono determinare la perdita di traffico organico, con 5 cause che sono considerate le più frequenti, e una guida (anche grafica) che mostra visivamente gli effetti di tali cali e ci aiuta ad analizzare le fluttuazioni negative del traffico organico per provare a rispondere e risollevare il nostro sito.

Siti in calo, le cause e i consigli di Google

Il problema è stato trattato in un lungo articolo di Daniel Waisberg sul blog di Google, che spiega analiticamente come appaiono e cosa significano le fluttuazioni negative di traffico che si possono riscontrare nei volumi di un sito.
In estrema sintesi, secondo il Search Advocate un calo del traffico organico di ricerca “può verificarsi per diversi motivi e la maggior parte di essi può essere invertita”, anche se “potrebbe non essere semplice capire cosa è successo esattamente al tuo sito”.

Proprio per aiutarci a comprendere cosa sta influenzando il traffico del nostro sito, il Googler ha abbozzato alcuni esempi di cadute e del modo in cui possono potenzialmente influenzare il nostro traffico.

Per la prima volta, quindi, Google mostra il vero aspetto dei vari tipi di cali di traffico organico attraverso degli screenshot dei rapporti sul rendimento della Google Search Console, aggiungendo una serie di consigli per aiutarci ad affrontare tali situazioni. È interessante notare la differenza visiva che sussiste tra i vari grafici, segno che ogni tipo di problematica genera oscillazioni caratteristiche e distintive che possiamo riconoscere a colpo d’occhio.

Le onde specifiche dei cali di traffico organico

In particolare, i problemi tecnici a livello di sito e le azioni manuali provocano generalmente un enorme e improvviso calo del traffico organico (in alto a sinistra nell’immagine).

Problemi tecnici a livello di pagina, una modifica dell’algoritmo come un core update o un cambiamento dell’intento di ricerca provocano un calo più lento del traffico, che tende a stabilizzarsi nel tempo.

Ci sono poi i cambiamenti legati alla stagionalità, oscillazioni tendenziali e cicliche che provocano dei grafici con curve caratterizzate da alti e bassi.

Infine, l’ultimo grafico mostra l’oscillazione di un sito segnalato per problemi tecnici in Search Console e poi tornato alla normalità dopo la correzione.

Molto banalmente, riconoscere esattamente qual è la causa del crollo del traffico organico è un primo passo verso la risoluzione del problema, come già dicevamo in questo approfondimento per capire le differenze tra i cali legati a un cambio algoritmico e quelli per azioni manuali.

Le cinque cause di perdite di traffico SEO

Secondo Waisberg, esistono cinque principali cause di calo del traffico di ricerca:

  • Problemi tecnici. Presenza di errori che possono impedire a Google di eseguire la scansione, l’indicizzazione o la pubblicazione delle nostre pagine per gli utenti, come ad esempio mancata disponibilità del server, recupero di file robots.txt, pagina non trovata e altro. Tali problemi possono riguardare l’intero sito (ad esempio, se il tuo sito risulta inattivo) o l’intera pagina (come per un tag noindex messo male, che causa una mancata scansione della pagina da parte di Google e genera un calo più lento del traffico).
  • Problemi di sicurezza. Quando un sito è interessato da una minaccia alla sicurezza, Google potrebbe avvisare gli utenti prima che raggiungano le sue pagine con avvisi o pagine interstitial, che possono ridurre il traffico da ricerca.
  • Azioni manuali. Se il sito non è conforme alle linee guida di Google, alcune delle pagine o l’intero dominio potrebbero essere omessi dai risultati della Ricerca Google tramite un’azione manuale.
  • Cambiamenti algoritmici. Google “migliora sempre il modo in cui valuta i contenuti e aggiorna di conseguenza il suo algoritmo”, dice Waisberg, e core update e altri aggiornamenti minori possono modificare il rendimento di alcune pagine nei risultati della Ricerca Google.
  • Modifiche all’interesse di ricerca. A volte, i cambiamenti nel comportamento degli utenti “modificano la domanda per determinate query, a causa di una nuova tendenza o della stagionalità nel corso dell’anno”. Pertanto, il traffico di un sito può diminuire semplicemente a causa di influenze esterne, per i cambiamenti nel search intent individuato (e premiato) da Google.

Come diagnosticare un calo del traffico di Ricerca Google

Secondo Waisberg, il modo più efficiente per capire cosa è successo al traffico di un sito è aprire il suo performance report di Search Console e guardare il grafico principale.

Un grafico “vale più di mille parole” e riassume molte informazioni, aggiunge l’esperto, e inoltre l’analisi della forma della linea ci dirà già molto sulle potenziali cause del movimento.

Per eseguire questa analisi, l’articolo suggerisce 3 indicazioni:

  • Modificare l’intervallo di date per includere gli ultimi 16 mesi, per analizzare il calo del traffico nel contesto ed escludere che si tratti di un calo stagionale che si verifica ogni anno in occasione di festività vacanza o di una tendenza.
  • Confrontare il periodo di drop con un periodo simile, confrontando lo stesso numero di giorni e preferibilmente gli stessi giorni della settimana, per rivedere esattamente cosa è cambiato: fare clic su tutte le schede per scoprire se la modifica è avvenuta solo per query, URL, paesi, dispositivi o aspetti di ricerca specifici.
  • Analizzare separatamente i diversi tipi di ricerca, per comprendere se il calo riscontrato si è verificato nella Ricerca web, in Google Immagini, nella scheda Video o nel tab di Google News.

Studiare il contesto del sito

Scavare a fondo nei rapporti, usando in supporto anche Google Trends o SEO tool come il nostro, può aiutare a capire in quale categoria ricade il nostro calo di traffico, e in particolare a scoprire se questa perdita di traffico fa parte di una tendenza più ampia del settore o se sta accadendo solo per le nostre pagine.

Ci sono due aspetti particolare da analizzare riguardanti il contesto d’azione del nostro sito:

  • Cambiamenti dell’interesse di ricerca o nuovo prodotto. Se ci sono grandi cambiamenti in cosa e come le persone cercano (ne abbiamo avuto una dimostrazione con la pandemia), le persone possono iniziare a cercare query diverse o utilizzare i propri dispositivi per scopi diversi. Inoltre, se il nostro brand è un e-Commerce specifico online, potrebbe esserci un nuovo prodotto concorrente che cannibalizza le nostre query di ricerca.
  • Stagionalità. Come sappiamo, ci sono alcune query e ricerche che seguono tendenze stagionali; ad esempio, quelle relative al cibo, perché “le persone cercano diete a gennaio, tacchino a novembre e champagne a dicembre” (almeno negli Stati Uniti) e diversi settori hanno diversi livelli di stagionalità.

Analizzare le tendenze delle query

Waisberg suggerisce di usare Google Trends per analizzare le tendenze in diversi settori, perché fornisce l’accesso a un campione in gran parte non filtrato di richieste di ricerca effettive fatte a Google; inoltre, è “anonimizzato, classificato e aggregato”, permettendo a Google di mostrare interesse per argomenti di tutto il mondo o fino a livello di città.

Con questo strumento, possiamo controllare le query che stanno indirizzando il traffico nostro tuo sito per vedere se hanno evidenti cali in diversi periodi dell’anno.

L’esempio nell’immagine seguente mostra tre tipi di tendenze:

analizzare il search interest con Google Trends

  • Il tacchino ha una forte stagionalità, con un picco ogni anno a novembre (periodo del Ringraziamento, di cui il tacchino è il piatto simbolo).
  • Il pollo mostra una certa stagionalità, ma meno accentuata.
  • Il caffè è significativamente più stabile e “sembra che le persone ne abbiano bisogno durante tutto l’anno”.

Sempre all’interno di Google Trends possiamo scoprire altri due insights interessanti che potrebbero aiutarci con il traffico di ricerca:

  • Monitorare le query principali nella nostra regione e confrontarle con le query da cui riceviamo traffico, come mostrato nel rapporto sul rendimento di Search Console. Se nel traffico mancano delle query, controllare se il sito dispone di contenuti su quel topic e verificare che siano scansionati e indicizzati.
  • Controllare le query relative ad argomenti importanti, che potrebbe far emergere query correlate in aumento e aiutarci a preparare adeguatamente il sito, ad esempio aggiungendo contenuti correlati.

Perché il mio sito perde traffico?

La domanda diretta sui motivi per cui un sito possa perdere traffico organico è stata anche al centro di un interessante Hangout su Youtube in cui John Mueller ha risposto al dubbio di un utente, legato a un problema che affligge il suo sito: “Dal 2017 stiamo perdendo in modo graduale ranking in generale e anche su keyword rilevanti“, dice, aggiungendo di aver fatto delle verifiche sui backlink ricevuti, che nella metà dei casi derivano da un singolo sottodominio, e sui contenuti (auto-generati tramite un tool, non più usato da alcuni anni).

La domanda dell’utente è quindi duplice: innanzitutto, chiede un consiglio a Mueller su come arrestare il graduale calo di traffico, ma anche un suggerimento pratico sull’eventuale uso del disavow link per rimuovere tutti i backlink del sottodominio, temendo che tale azione possa provocare ulteriori effetti al ranking.

Individuare le cause del calo

Mueller comincia dalla seconda parte di domanda, e risponde in modo netto: “Se rimuovi col disavow una parte significativa dei tuoi link naturali ci possono essere sicuramente degli effetti negativi sul ranking”, confermando ancora una volta il peso dei link per il posizionamento su Google.

Venendo poi alla parte più pratica, e quindi alle cause possibili del calo di traffico e posizioni, il Googler pensa che i contenuti proposti possano essere buoni (“se si tratta di documenti informativi extra riguardanti il tuo sito, i prodotti o i servizi che offri”) e quindi non serve bloccarli o rimuoverli dall’indicizzazione. Pertanto, a prima vista si può dire che “né i link né i contenuti sono direttamente le cause del calo del sito”.

Traffico SEO, i motivi per cui un sito perde ranking

Mueller articola la sua risposta in maniera più estesa, dicendo che in casi del genere, “quando stai vedendo una specie di calo graduale per un periodo di tempo abbastanza lungo”, può esserci una sorta di “naturale variazione del posizionamento” che può essere determinata da cinque possibili motivi.

  1. Cambiamenti dell’ecosistema Web.
  2. Modifiche dell’algoritmo.
  3. Cambiamenti delle ricerche degli utenti.
  4. Cambiamenti delle aspettative degli utenti sui contenuti.
  5. Cambiamenti graduali che non derivano da grandi e drammatici problemi dei siti Web.

Il sistema di posizionamento di Google è in continuo movimento e c’è sempre chi sale e chi scende (il miglioramento di ranking di un sito è la perdita di posizione di un altro, inevitabilmente). Premesso questo, possiamo approfondire le cause citate nell’hangout.

Quando un sito perde traffico e posizioni

Tra le modifiche all’ecosistema, secondo l’interpretazione di Roger Montti su SearchEngineLand, vanno inserite situazioni come l’aumento della concorrenza o la “naturale scomparsa dei backlink” perché i siti linkanti sono andati offline o hanno rimosso il collegamento, e comunque tutti i fattori esterni al sito che possono provocare perdita di ranking e traffico.

Più chiaro il ragionamento sui cambiamenti dell’algoritmo, e sappiamo quanto stiano diventando frequenti anche i broad core update, che ridefiniscono il significato della rilevanza di una pagina Web per una query di ricerca e la sua attinenza al search intent delle persone.

Proprio gli utenti sono i “protagonisti” delle altre due ragioni citate: lo stiamo ripetendo in maniera quasi ossessiva, ma comprendere le intenzioni delle persone è la chiave per fare contenuti di qualità e per avere un sito performante, e quindi è importante seguire le evoluzioni delle query ma anche conoscere le tipologie di contenuto che Google sta premiando (perché piacciono agli utenti).

Come risollevare un sito dopo la perdita di traffico

Mueller offriva anche qualche spunto pratico per uscire dalle situazioni di traffico in calo: il primo suggerimento è rimboccarsi le maniche e guardare con più attenzione alle problematiche globali del sito, cercando aree in cui è possibile apportare miglioramenti significativi e provando a rendere i contenuti più pertinenti per le tipologie di utenti che rappresentano il nostro target.

Più in generale, il Senior Webmaster Trends Analyst di Google ci dice che spesso serve dare una “seconda occhiata” al sito e al suo contesto, non fermarsi a quella che potrebbe apparire la prima causa del declino (nel caso specifico del vecchio hangout, i backlink) ma approfondire lo studio e valutare tutti i possibili fattori che influenzano il calo di ranking e di traffico.

Algoritmi, sanzioni e qualità per Google, come capire cali di traffico SEO

Ben più esaustivi e approfonditi sono i consigli arrivati da Pedro Dias, che ha lavorato nel team Google Search Quality tra il 2006 e il 2011 e che in un articolo pubblicato su Search Engine Land ci accompagna ad applicare il giusto approccio alle situazioni di cali di traffico SEO. Il punto di partenza del suo ragionamento è che è cruciale comprendere davvero se il traffico diminuisce a causa di un update o se intervengono altri fattori come azioni manuali, sanzioni eccetera, perché solo conoscendo le loro differenze e le conseguenze che generano – e individuando quindi il motivo scatenante del problema – è possibile reagire con la giusta strategia.

Comprendere come funzionano gli algoritmi e le azioni manuali

L’ex Googler premette che la sua percezione potrebbe pertanto essere attualmente obsoleta, visto che le cose a Google cambiano a un ritmo più che rapido, ma, forte comunque della sua esperienza di lavoro presso “la casella di input più ricercata di tutto il Web”, Dias ci offre indicazioni utili e interessanti su “cosa fa funzionare Google e come funziona la ricerca, con tutti i suoi dadi e bulloni”.

Nello specifico, analizza “questo minuscolo campo di input e il potere che esercita sul Web e, in definitiva, sulle vite di chi gestisce un sito Web”, e chiarisce alcuni concetti, come le penalizzazioni, per insegnarci a distinguere le varie forme e cause per cui Google può far “crollare” un sito

Gli algoritmi di Google sono come ricette

“Non sorprende il fatto che chiunque abbia una presenza sul Web di solito trattiene il respiro ogni volta che Google decide di apportare modifiche ai suoi risultati di ricerca organici”, scrive l’ex Googler, che poi ricorda come “essendo principalmente una software engineering company, Google miri a risolvere tutti i suoi problemi su larga scala, anche perché sarebbe “praticamente impossibile risolvere i problemi che Google deve affrontare esclusivamente con l’intervento umano”.

Per Dias, “gli algoritmi sono come le ricette: una serie di istruzioni dettagliate in un ordine particolare che mirano a completare un’attività specifica o a risolvere un problema”.

Meglio piccoli algoritmi per risolvere un problema alla volta

La probabilità che un algoritmo “produca il risultato atteso è indirettamente proporzionale alla complessità del compito che deve completare”: questo significa che “il più delle volte, è meglio avere più (piccoli) algoritmi che risolvono un (grande) problema complesso, scomponendolo in semplici sotto-attività, piuttosto che un gigantesco algoritmo singolo che cerca di coprire tutte le possibilità”.

Finché c’è un input, prosegue l’esperto, “un algoritmo funzionerà instancabilmente, restituendo ciò per cui è stato programmato; la scala in cui opera dipende solo dalle risorse disponibili, come l’archiviazione, la potenza di elaborazione, la memoria e così via”.

Questi sono “algoritmi di qualità, che spesso non fanno parte dell’infrastruttura”, ma esistono anche “algoritmi di infrastruttura che prendono decisioni su come il contenuto viene sottoposto a scansione e archiviato, ad esempio”. La maggior parte dei motori di ricerca “applica algoritmi di qualità solo al momento della pubblicazione dei risultati di ricerca: i risultati, cioè, sono valutati solo qualitativamente, al momento del servizio”.

Gli aggiornamenti algoritmici per Google

In Google, gli algoritmi di qualità “sono visti come filtri che mirano a far emergere buoni contenuti e cercano segnali di qualità in tutto l’indice di Google”, che sono spesso forniti a livello di pagina per tutti i siti web e che possono quindi essere combinati, producendo “punteggi a livello di directory o di hostname, ad esempio”.

Per i proprietari di siti Web, i SEO e gli esperti di marketing digitale, in molti casi, “l’influenza degli algoritmi può essere percepita come penalità, soprattutto quando un sito Web non soddisfa pienamente tutti i criteri di qualità e gli algoritmi di Google decidono invece di premiare altri siti Web di qualità superiore”.

Nella maggior parte di questi casi, ciò che gli utenti comuni vedono è “un calo delle prestazioni organiche”, che non deriva necessariamente dal fatto che il sito sia stato “spinto giù”, ma più probabilmente “perché ha smesso di essere valutato in modo scorretto, il che può essere positivo o negativo”.

Che cos’è la qualità

Per capire come funzionano questi algoritmi di qualità, dobbiamo prima capire cos’è la qualità, spiega giustamente Dias: come diciamo spesso parlando di articoli di qualità, questo valore è soggettiva, sta “negli occhi di chi guarda”.

La qualità “è una misura relativa all’interno dell’universo in cui viviamo, dipende dalla nostra conoscenza, esperienza e ambiente”, e “ciò che per una persona è qualità, probabilmente per un altro potrebbe non esserlo”. Non possiamo “legare la qualità a un semplice processo binario privo di contesto: ad esempio, se sto morendo di sete nel deserto, mi interessa se una bottiglia d’acqua ha la sabbia sul fondo?”, aggiunge l’autore.

Per i siti web non è diverso: la qualità è, fondamentalmente, fornire “prestazioni oltre le aspettative (Performance over Expectation) o, in termini di marketing, Value Proposition”.

Le valutazioni di Google sulla qualità

Se la qualità è relativa, dobbiamo cercare di capire come fa Google a stabilire cosa sia rispondente ai suoi valori e cosa non lo sia.

In realtà, dice Dias, “Google non detta cosa sia e cosa non sia qualità: tutti gli algoritmi e la documentazione che Google utilizza per le sue Istruzioni per i webmaster (che ora sono confluite nelle linee Guida Google Search Essentials, ndr) si basano su feedback e dati reali degli utenti”. È anche per questo motivo, possiamo aggiungere, che Google impiega una squadra di oltre 14mila Quality Raters, chiamati a valutare appunto la qualità dei risultati di ricerca forniti dagli algoritmi, usando come bussola le apposite Google quality rater guidelines, che pure cambiano e sono aggiornate frequentemente (l’ultima volta a luglio 2022).

Lo dicevamo anche parlando di search journey: quando “gli utenti eseguono ricerche e interagiscono con i siti Web sull’indice, Google analizza il comportamento degli utenti e spesso esegue più test ricorrenti, al fine di assicurarsi che sia allineato ai loro intenti e bisogni”. Questo processo “garantisce che le linee guida per i siti web emesse da Google si allineino a ciò che vogliono gli utenti del motore di ricerca, non sono necessariamente ciò che Google vuole unilateralmente”.

Gli aggiornamenti dell’algoritmo inseguono gli utenti

Questo è il motivo per cui Google afferma spesso che “gli algoritmi sono fatti per inseguire gli utenti”, ricorda l’articolo, che quindi invita parimenti i siti a “inseguire gli utenti invece degli algoritmi, così da essere alla pari con la direzione verso cui si muove Google”.

Ad ogni modo, “per comprendere e massimizzare il potenziale di risalto di un sito web, dovremmo guardare i nostri siti web da due diverse prospettive, di Servizio e di Prodotto“.

Il sito come servizio e prodotto

Il sito come un servizio

Quando guardiamo un sito web dal punto di vista del servizio, dovremmo analizzare innanzitutto tutti gli aspetti tecnici coinvolti, dal codice all’infrastruttura: ad esempio, tra tante altre cose “come è progettato per funzionare, quanto è tecnicamente robusto e coerente, come gestisce il processo di comunicazione con altri server e servizi, e poi ancora le integrazioni e il rendering front-end”.

Questa analisi, da sola, non basta perché “tutti i fronzoli tecnici non creano valore dove e se il valore non esiste”, sottolinea Pedro Dias, ma al massimo “aggiungono valore e fanno risplendere al meglio qualsiasi valore nascosto”. Per questo motivo, consiglia l’ex Googler, “si dovrebbe lavorare sui dettagli tecnici, ma anche considerare di guardare il proprio sito Web dal punto di vista del prodotto”.

Il sito come un prodotto

Quando guardiamo un sito Web dal punto di vista del prodotto, “dovremmo mirare a comprendere l’esperienza che gli utenti hanno su di esso e, in definitiva, quale valore stiamo fornendo per distinguerci dalla concorrenza”.

Per rendere questi elementi “meno eterei e più tangibili”, Dias ricorre a una domanda che pone ai suoi clienti: “Se il tuo sito scomparisse oggi dal Web, cosa mancherebbe ai tuoi utenti, che non troverebbero in nessuno dei siti web della concorrenza?”. È dalla risposta che si capisce “se si può puntare a costruire una strategia di business sostenibile e duratura sul web”, e per aiutarci a capire meglio questi concetti ci fornisce questa immagine – l’User Experience Honeycomb di Peter Morville, modificata per inserire un riferimento al concetto specifico di EAT che fa parte delle linee guida per i valutatori di qualità di Google.

Il favo della User Experience

La maggior parte dei professionisti SEO esamina in profondità gli aspetti tecnici della UX come accessibilità, usabilità e possibilità di essere trovati (che riguardano, in effetti, la SEO), ma tendono a tralasciare gli aspetti qualitativi (più strategici), come Utilità, Desiderabilità e Credibilità.

Al centro di questo alveare c’è il Valore (“Value”), che può essere “pienamente raggiunto solo quando tutti gli altri fattori circostanti sono soddisfatti”: quindi, “applicarlo alla tua presenza sul web significa che, a meno che tu non guardi l’intera esperienza olistica, perderai l’obiettivo principale del tuo sito web, che è creare valore per te e i tuoi utenti”.

La qualità non è statica, ma in evoluzione

A complicare ulteriormente le cose c’è il fatto che “la qualità è un obiettivo in movimento”, non è statica, e quindi un sito che vuole “essere percepito come di qualità deve fornire valore, risolvere un problema o un’esigenza” in maniera costante nel tempo. Allo stesso modo, anche Google deve evolvere per garantire sempre il massimo livello di efficacia delle sue risposte, ed è per questo che “esegue costantemente test, spingendo aggiornamenti di qualità e miglioramenti degli algoritmi”.

La qualità non è statica

Come dice Dias, “se avvii il tuo sito e non lo migliori mai, nel tempo i tuoi concorrenti alla fine ti raggiungeranno, migliorando la tecnologia del loro sito o lavorando sull’esperienza e sulla proposta di valore”. Proprio come la vecchia tecnologia diventa obsoleta e deprecata, “nel tempo anche le esperienze innovative tendono a diventare ordinarie e molto probabilmente non riescono ad andare oltre le aspettative”.

Per chiarire il concetto, l’ex Googler fa un esempio immediato: “Nel 2007 Apple ha conquistato il mercato degli smartphone con un dispositivo touch screen, ma al giorno d’oggi, la maggior parte delle persone non prenderà nemmeno in considerazione un telefono che non abbia un touchscreen, perché è diventato un dato di fatto e non può più essere utilizzato come vantaggio competitivo”.

E anche la SEO non può essere un’azione una tantum: non è che “dopo aver ottimizzato una volta il sito, questo resta ottimizzato in modo permanente”, ma “qualsiasi area che sostiene un’azienda deve migliorare e innovare nel tempo, per rimanere competitiva”.

Altrimenti, “quando tutto questo viene lasciato al caso o non diamo l’attenzione necessaria per assicurarci che tutte queste caratteristiche siano comprese dagli utenti, è proprio allora che i siti iniziano a incorrere in problemi di prestazioni organiche”.

Le azioni manuali possono completare gli aggiornamenti algoritmici

Sarebbe ingenuo “presumere che gli algoritmi siano perfetti e facciano tutto ciò che dovrebbero fare in modo impeccabile”, ammette Dias, secondo cui il grande vantaggio “degli umani nella battaglia contro le macchine è che possiamo affrontare gli imprevisti”.

Abbiamo cioè “la capacità di adattarci e comprendere le situazioni anomale, e capire perché qualcosa può essere buono anche se potrebbe sembrare cattivo, o viceversa”. Vale a dire, “gli esseri umani possono dedurre il contesto e l’intenzione, mentre le macchine non sono così brave”.

Nel campo del software engineering, “quando un algoritmo rileva o perde una cosa che non avrebbe dovuto, genera quello che viene indicato rispettivamente come falso positivo o falso negativo”; per applicare le giuste correzioni, bisogna identificare “l’output di falsi positivi o falsi negativi, un compito che spesso è svolto al meglio dagli esseri umani”, e quindi di  solito “gli ingegneri impostano un livello di fiducia (soglia) che la macchina dovrebbe considerare prima di richiedere l’intervento umano”.

Quando e perché scatta un’azione manuale

Dentro la Search Quality ci sono “team di persone che valutano i risultati e guardano i siti web per assicurarsi che gli algoritmi funzionino correttamente, ma anche per intervenire quando la macchina sbaglia o non può prendere una decisione”, rivela Pedro Dias, che introduce quindi la figura del Search Quality Analyst.

Il compito di questo analista della qualità della ricerca è “capire ciò che ha davanti, esaminando i dati forniti, e formulare giudizi: queste chiamate di giudizio possono essere semplici, ma sono spesso supervisionate, approvate o rifiutate da altri Analisti a livello globale, al fine di ridurre al minimo i pregiudizi umani”.

Questa attività si traduce frequentemente in azioni statiche che mirano a (ma non solo):

  • Creare una serie di dati che possono essere successivamente utilizzati per allenare gli algoritmi;
  • Affrontare situazioni specifiche e di impatto, in cui gli algoritmi hanno fallito;
  • Segnalare ai proprietari di siti web che comportamenti specifici non rientrano nelle linee guida sulla qualità.

Queste azioni statiche vengono spesso definite azioni manuali, e possono essere attivate per un’ampia varietà di motivi, anche se “l’obiettivo più comune resta contrastare l’intento manipolativo, che per qualche motivo è riuscito a sfruttare con successo un difetto negli algoritmi di qualità”.

Lo svantaggio delle azioni manuali “è che sono statiche e non dinamiche come gli algoritmi: questi ultimi cioè funzionano continuamente e reagiscono alle modifiche sui siti Web, in base solo alla ripetizione della scansione o al perfezionamento dell’algoritmo”. Al contrario, “con le azioni manuali l’effetto rimarrà per tutto il tempo previsto (giorni / mesi / anni) o fino a quando una richiesta di riconsiderazione non viene ricevuta ed elaborata con successo”.

Le differenze tra l’impatto di algoritmi e azioni manuali

Pedro Dias fornisce anche un utile specchietto sintetico che mette a confronto algoritmi e azioni manuali:

Algoritmi
– Mirano al valore del resurfacing
– Lavoro su larga scala
– Dinamico
– Completamente automatizzato
– Durata indefinita
Azioni manuali
– Mirano a penalizzare il comportamento
– Affrontano scenari specifici
– Statico Manuale + Semiautomatico
– Durata definita (data di scadenza)

Prima di applicare qualsiasi azione manuale, un search quality analyst “deve considerare ciò che sta affrontando, valutare l’impatto e il risultato desiderato”, rispondendo a domande come ad esempio:

  • Il comportamento ha intenti manipolativi?
  • Il comportamento è abbastanza eclatante?
  • L’azione manuale avrà un impatto?
  • Quali cambiamenti produrrà l’impatto?
  • Cosa sto penalizzando (comportamento diffuso o singolo)?

Come spiega l’ex Googler, questi sono aspetti che “devono essere adeguatamente ponderati e considerati prima ancora di prendere in considerazione qualsiasi azione manuale”.

Cosa fare in caso di azione manuale

Visto che Google si sposta “sempre più verso soluzioni algoritmiche, sfruttando l’intelligenza artificiale e l’apprendimento automatico sia per migliorare i risultati che per combattere lo spam, le azioni manuali tenderanno a svanire e alla fine scompariranno completamente nel lungo periodo”, sostiene Dias.

Ad ogni modo, se il nostro sito web è stato colpito da azioni manuali “la prima cosa che devi fare è capire quale comportamento lo ha attivato”, facendo riferimento “alle linee guida tecniche e di qualità di Google per valutare il tuo sito web in base a esse”.

Questo è un lavoro da svolgere con calma e accuratezza, perché “non è il momento di lasciare che il senso di fretta, stress e ansia prendano il comando”; è importante “raccogliere tutte le informazioni, fare piazza pulita degli errori e dei problemi del sito, aggiustare tutto e solo dopo inviare una richiesta di riconsiderazione”.

Come recuperare dalle azioni manuali

Una convinzione diffusa, ma sbagliata, è “che quando un sito è colpito da un’azione manuale e perde traffico e posizionamento, tornerà allo stesso livello una volta revocate le azioni manuali”. Quel ranking, infatti, è frutto (anche) dell’uso di strumenti non consentiti (che hanno provocato la penalizzazione), quindi non ha senso che, dopo la pulizia e la revoca dell’azione manuale, il sito possa tornare esattamente dov’era prima.

Comunque, tiene a sottolineare l’esperto, “qualsiasi sito Web può essere ripristinato da quasi tutti gli scenari” e i casi in cui una proprietà è considerata “irrecuperabile sono estremamente rari”. È però importante che il recupero inizi da “una piena comprensione di ciò con cui hai a che fare”, con la consapevolezza che “azioni manuali e problemi algoritmici possono coesistere” e che “a volte, non inizierai a vedere nulla prima di stabilire le priorità e risolvere tutti i problemi nell’ordine giusto”.

In realtà “non esiste un modo semplice per spiegare cosa cercare e i sintomi di ogni singolo problema algoritmico”, e quindi “il consiglio è di pensare alla tua proposta di valore, al problema che stai risolvendo o alla necessità a cui stai rispondendo, senza dimenticare di chiedere feedback ai tuoi utenti, invitandoli a esprimere opinioni sulla tua attività e sull’esperienza che fornisci sul tuo sito, o su come si aspettano che tu migliori”.

I takeaway sui cali algoritmici o derivanti da azioni manuali

In conclusione, Pedro Dias ci lascia quattro pillole per sintetizzare il suo (esteso) contributo alla causa dei siti penalizzati da aggiornamenti algoritmici o azioni manuali.

  1. Ripensa la tua proposta di valore e il tuo vantaggio competitivo, perché “avere un sito Web non è di per sé un vantaggio competitivo”.
  2. Tratta il tuo sito web come un prodotto e innova costantemente: “se non vai avanti, verrai superato, mentre i siti di successo migliorano ed evolvono continuamente”.
  3. Ricerca i bisogni dei tuoi utenti attraverso la User Experience: “la priorità sono i tuoi utenti, e poi Google”, per cui è utile “parlare e interagire con i tuoi utenti e chiedere le loro opinioni per migliorare le aree critiche”.
  4. La SEO tecnica è importante, ma da sola non risolverà nulla: “Se il tuo prodotto / contenuto non ha appeal o valore, non importa quanto sia tecnico e ottimizzato, e quindi è cruciale non perdere la value proposition”.