È trascorso poco più di un mese da quando Google ha lanciato il suo ultimo aggiornamento all’algoritmo, il December 2020 Core Update, e in tanti sono ancora alle prese con l’analisi dei suoi effetti e con i tentativi di risollevare il sito dopo il calo. Ma come si fa a capire davvero quando il traffico diminuisce a causa di un update e, quando, invece, intervengono altri fattori come azioni manuali, sanzioni eccetera? Un ex Googler ci accompagna alla scoperta di tutti questi elementi, perché è solo conoscendo le loro differenze e le conseguenze che generano che è possibile reagire con la giusta strategia.

Comprendere come funzionano gli algoritmi e le azioni manuali

La nostra guida in questo campo complesso è Pedro Dias, che ha lavorato nel team Google Search Quality tra il 2006 e il 2011, e che nell’articolo pubblicato su Search Engine Land ci tiene a sottolineare che la sua percezione potrebbe pertanto essere attualmente obsoleta, visto che le cose a Google possono cambiare a un ritmo ragionevolmente rapido.

Ad ogni modo, forte comunque della sua esperienza di lavoro presso “la casella di input più ricercata di tutto il Web”, Dias ci offre indicazioni utili e interessanti su “cosa fa funzionare Google e come funziona la ricerca, con tutti i suoi dadi e bulloni”, analizzando “questo minuscolo campo di input e il potere che esercita sul Web e, in definitiva, sulle vite di chi gestisce un sito Web”, così da chiarire il concetto di penalizzazioni e distinguere le varie forme e cause per cui Google può far “crollare” un sito

Gli algoritmi di Google sono come ricette

“Non sorprende il fatto che chiunque abbia una presenza sul Web di solito trattiene il respiro ogni volta che Google decide di apportare modifiche ai suoi risultati di ricerca organici”, scrive l’ex Googler, che poi ricorda come “essendo principalmente una software engineering company, Google miri a risolvere tutti i suoi problemi su larga scala, anche perché sarebbe “praticamente impossibile risolvere i problemi che Google deve affrontare esclusivamente con l’intervento umano”.

Per Dias, “gli algoritmi sono come le ricette: una serie di istruzioni dettagliate in un ordine particolare che mirano a completare un’attività specifica o a risolvere un problema”.

Meglio piccoli algoritmi per risolvere un problema alla volta

La probabilità che un algoritmo “produca il risultato atteso è indirettamente proporzionale alla complessità del compito che deve completare”: questo significa che “il più delle volte, è meglio avere più (piccoli) algoritmi che risolvono un (grande) problema complesso, scomponendolo in semplici sotto-attività, piuttosto che un gigantesco algoritmo singolo che cerca di coprire tutte le possibilità”.

Finché c’è un input, prosegue l’esperto, “un algoritmo funzionerà instancabilmente, restituendo ciò per cui è stato programmato; la scala in cui opera dipende solo dalle risorse disponibili, come l’archiviazione, la potenza di elaborazione, la memoria e così via”.

Questi sono “algoritmi di qualità, che spesso non fanno parte dell’infrastruttura”, ma esistono anche “algoritmi di infrastruttura che prendono decisioni su come il contenuto viene sottoposto a scansione e archiviato, ad esempio”. La maggior parte dei motori di ricerca “applica algoritmi di qualità solo al momento della pubblicazione dei risultati di ricerca: i risultati, cioè, sono valutati solo qualitativamente, al momento del servizio”.

Gli aggiornamenti algoritmici per Google

In Google, gli algoritmi di qualità “sono visti come filtri che mirano a far emergere buoni contenuti e cercano segnali di qualità in tutto l’indice di Google”, che sono spesso forniti a livello di pagina per tutti i siti web e che possono quindi essere combinati, producendo “punteggi a livello di directory o di hostname, ad esempio”.

Per i proprietari di siti Web, i SEO e gli esperti di marketing digitale, in molti casi, “l’influenza degli algoritmi può essere percepita come penalità, soprattutto quando un sito Web non soddisfa pienamente tutti i criteri di qualità e gli algoritmi di Google decidono invece di premiare altri siti Web di qualità superiore”.

Nella maggior parte di questi casi, ciò che gli utenti comuni vedono è “un calo delle prestazioni organiche”, che non deriva necessariamente dal fatto che il sito sia stato “spinto giù”, ma più probabilmente “perché ha smesso di essere valutato in modo scorretto, il che può essere positivo o negativo”.

Che cos’è la qualità

Per capire come funzionano questi algoritmi di qualità, dobbiamo prima capire cos’è la qualità, spiega giustamente Dias: come diciamo spesso parlando di articoli di qualità, questo valore è soggettiva, sta “negli occhi di chi guarda”.

La qualità “è una misura relativa all’interno dell’universo in cui viviamo, dipende dalla nostra conoscenza, esperienza e ambiente”, e “ciò che per una persona è qualità, probabilmente per un altro potrebbe non esserlo”. Non possiamo “legare la qualità a un semplice processo binario privo di contesto: ad esempio, se sto morendo di sete nel deserto, mi interessa se una bottiglia d’acqua ha la sabbia sul fondo?”, aggiunge l’autore.

Per i siti web non è diverso: la qualità è, fondamentalmente, fornire “prestazioni oltre le aspettative (Performance over Expectation) o, in termini di marketing, Value Proposition”.

Le valutazioni di Google sulla qualità

Se la qualità è relativa, dobbiamo cercare di capire come fa Google a stabilire cosa sia rispondente ai suoi valori e cosa non lo sia.

In realtà, dice Dias, “Google non detta cosa sia e cosa non sia qualità: tutti gli algoritmi e la documentazione che Google utilizza per le sue Istruzioni per i webmaster si basano su feedback e dati reali degli utenti”.

Lo dicevamo anche parlando di search journey: quando “gli utenti eseguono ricerche e interagiscono con i siti Web sull’indice, Google analizza il comportamento degli utenti e spesso esegue più test ricorrenti, al fine di assicurarsi che sia allineato ai loro intenti e bisogni”. Questo processo “garantisce che le linee guida per i siti web emesse da Google si allineino a ciò che vogliono gli utenti del motore di ricerca, non sono necessariamente ciò che Google vuole unilateralmente”.

Gli aggiornamenti dell’algoritmo inseguono gli utenti

Questo è il motivo per cui Google afferma spesso che “gli algoritmi sono fatti per inseguire gli utenti”, ricorda l’articolo, che quindi invita parimenti i siti a “inseguire gli utenti invece degli algoritmi, così da essere alla pari con la direzione verso cui si muove Google”.

Ad ogni modo, “per comprendere e massimizzare il potenziale di risalto di un sito web, dovremmo guardare i nostri siti web da due diverse prospettive, di Servizio e di Prodotto“.

Il sito come servizio e prodotto

Il sito come un servizio

Quando guardiamo un sito web dal punto di vista del servizio, dovremmo analizzare innanzitutto tutti gli aspetti tecnici coinvolti, dal codice all’infrastruttura: ad esempio, tra tante altre cose “come è progettato per funzionare, quanto è tecnicamente robusto e coerente, come gestisce il processo di comunicazione con altri server e servizi, e poi ancora le integrazioni e il rendering front-end”.

Questa analisi, da sola, non basta perché “tutti i fronzoli tecnici non creano valore dove e se il valore non esiste”, sottolinea Pedro Dias, ma al massimo “aggiungono valore e fanno risplendere al meglio qualsiasi valore nascosto”. Per questo motivo, consiglia l’ex Googler, “si dovrebbe lavorare sui dettagli tecnici, ma anche considerare di guardare il proprio sito Web dal punto di vista del prodotto”.

Il sito come un prodotto

Quando guardiamo un sito Web dal punto di vista del prodotto, “dovremmo mirare a comprendere l’esperienza che gli utenti hanno su di esso e, in definitiva, quale valore stiamo fornendo per distinguerci dalla concorrenza”.

Per rendere questi elementi “meno eterei e più tangibili”, Dias ricorre a una domanda che pone ai suoi clienti: “Se il tuo sito scomparisse oggi dal Web, cosa mancherebbe ai tuoi utenti, che non troverebbero in nessuno dei siti web della concorrenza?”. È dalla risposta che si capisce “se si può puntare a costruire una strategia di business sostenibile e duratura sul web”, e per aiutarci a capire meglio questi concetti ci fornisce questa immagine – l’User Experience Honeycomb di Peter Morville, modificata per inserire un riferimento al concetto specifico di EAT che fa parte delle linee guida per i valutatori di qualità di Google.

Il favo della User Experience

La maggior parte dei professionisti SEO esamina in profondità gli aspetti tecnici della UX come accessibilità, usabilità e possibilità di essere trovati (che riguardano, in effetti, la SEO), ma tendono a tralasciare gli aspetti qualitativi (più strategici), come Utilità, Desiderabilità e Credibilità.

Al centro di questo alveare c’è il Valore (“Value”), che può essere “pienamente raggiunto solo quando tutti gli altri fattori circostanti sono soddisfatti”: quindi, “applicarlo alla tua presenza sul web significa che, a meno che tu non guardi l’intera esperienza olistica, perderai l’obiettivo principale del tuo sito web, che è creare valore per te e i tuoi utenti”.

La qualità non è statica, ma in evoluzione

A complicare ulteriormente le cose c’è il fatto che “la qualità è un obiettivo in movimento”, non è statica, e quindi un sito che vuole “essere percepito come di qualità deve fornire valore, risolvere un problema o un’esigenza” in maniera costante nel tempo. Allo stesso modo, anche Google deve evolvere per garantire sempre il massimo livello di efficacia delle sue risposte, ed è per questo che “esegue costantemente test, spingendo aggiornamenti di qualità e miglioramenti degli algoritmi”.

La qualità non è statica

Come dice Dias, “se avvii il tuo sito e non lo migliori mai, nel tempo i tuoi concorrenti alla fine ti raggiungeranno, migliorando la tecnologia del loro sito o lavorando sull’esperienza e sulla proposta di valore”. Proprio come la vecchia tecnologia diventa obsoleta e deprecata, “nel tempo anche le esperienze innovative tendono a diventare ordinarie e molto probabilmente non riescono ad andare oltre le aspettative”.

Per chiarire il concetto, l’ex Googler fa un esempio immediato: “Nel 2007 Apple ha conquistato il mercato degli smartphone con un dispositivo touch screen, ma al giorno d’oggi, la maggior parte delle persone non prenderà nemmeno in considerazione un telefono che non abbia un touchscreen, perché è diventato un dato di fatto e non può più essere utilizzato come vantaggio competitivo”.

E anche la SEO non può essere un’azione una tantum: non è che “dopo aver ottimizzato una volta il sito, questo resta ottimizzato in modo permanente”, ma “qualsiasi area che sostiene un’azienda deve migliorare e innovare nel tempo, per rimanere competitiva”.

Altrimenti, “quando tutto questo viene lasciato al caso o non diamo l’attenzione necessaria per assicurarci che tutte queste caratteristiche siano comprese dagli utenti, è proprio allora che i siti iniziano a incorrere in problemi di prestazioni organiche”.

Le azioni manuali possono completare gli aggiornamenti algoritmici

Sarebbe ingenuo “presumere che gli algoritmi siano perfetti e facciano tutto ciò che dovrebbero fare in modo impeccabile”, ammette Dias, secondo cui il grande vantaggio “degli umani nella battaglia contro le macchine è che possiamo affrontare gli imprevisti”.

Abbiamo cioè “la capacità di adattarci e comprendere le situazioni anomale, e capire perché qualcosa può essere buono anche se potrebbe sembrare cattivo, o viceversa”. Vale a dire, “gli esseri umani possono dedurre il contesto e l’intenzione, mentre le macchine non sono così brave”.

Nel campo del software engineering, “quando un algoritmo rileva o perde una cosa che non avrebbe dovuto, genera quello che viene indicato rispettivamente come falso positivo o falso negativo”; per applicare le giuste correzioni, bisogna identificare “l’output di falsi positivi o falsi negativi, un compito che spesso è svolto al meglio dagli esseri umani”, e quindi di  solito “gli ingegneri impostano un livello di fiducia (soglia) che la macchina dovrebbe considerare prima di richiedere l’intervento umano”.

Quando e perché scatta un’azione manuale

Dentro la Search Quality ci sono “team di persone che valutano i risultati e guardano i siti web per assicurarsi che gli algoritmi funzionino correttamente, ma anche per intervenire quando la macchina sbaglia o non può prendere una decisione”, rivela Pedro Dias, che introduce quindi la figura del Search Quality Analyst.

Il compito di questo analista della qualità della ricerca è “capire ciò che ha davanti, esaminando i dati forniti, e formulare giudizi: queste chiamate di giudizio possono essere semplici, ma sono spesso supervisionate, approvate o rifiutate da altri Analisti a livello globale, al fine di ridurre al minimo i pregiudizi umani”.

Questa attività si traduce frequentemente in azioni statiche che mirano a (ma non solo):

  • Creare una serie di dati che possono essere successivamente utilizzati per allenare gli algoritmi;
  • Affrontare situazioni specifiche e di impatto, in cui gli algoritmi hanno fallito;
  • Segnalare ai proprietari di siti web che comportamenti specifici non rientrano nelle linee guida sulla qualità.

Queste azioni statiche vengono spesso definite azioni manuali, e possono essere attivate per un’ampia varietà di motivi, anche se “l’obiettivo più comune resta contrastare l’intento manipolativo, che per qualche motivo è riuscito a sfruttare con successo un difetto negli algoritmi di qualità”.

Lo svantaggio delle azioni manuali “è che sono statiche e non dinamiche come gli algoritmi: questi ultimi cioè funzionano continuamente e reagiscono alle modifiche sui siti Web, in base solo alla ripetizione della scansione o al perfezionamento dell’algoritmo”. Al contrario, “con le azioni manuali l’effetto rimarrà per tutto il tempo previsto (giorni / mesi / anni) o fino a quando una richiesta di riconsiderazione non viene ricevuta ed elaborata con successo”.

Le differenze tra l’impatto di algoritmi e azioni manuali

Pedro Dias fornisce anche un utile specchietto sintetico che mette a confronto algoritmi e azioni manuali:

Algoritmi
– Mirano al valore del resurfacing
– Lavoro su larga scala
– Dinamico
– Completamente automatizzato
– Durata indefinita
Azioni manuali
– Mirano a penalizzare il comportamento
– Affrontano scenari specifici
– Statico Manuale + Semiautomatico
– Durata definita (data di scadenza)

Prima di applicare qualsiasi azione manuale, un search quality analyst “deve considerare ciò che sta affrontando, valutare l’impatto e il risultato desiderato”, rispondendo a domande come ad esempio:

  • Il comportamento ha intenti manipolativi?
  • Il comportamento è abbastanza eclatante?
  • L’azione manuale avrà un impatto?
  • Quali cambiamenti produrrà l’impatto?
  • Cosa sto penalizzando (comportamento diffuso o singolo)?

Come spiega l’ex Googler, questi sono aspetti che “devono essere adeguatamente ponderati e considerati prima ancora di prendere in considerazione qualsiasi azione manuale”.

Cosa fare in caso di azione manuale

Visto che Google si sposta “sempre più verso soluzioni algoritmiche, sfruttando l’intelligenza artificiale e l’apprendimento automatico sia per migliorare i risultati che per combattere lo spam, le azioni manuali tenderanno a svanire e alla fine scompariranno completamente nel lungo periodo”, sostiene Dias.

Ad ogni modo, se il nostro sito web è stato colpito da azioni manuali “la prima cosa che devi fare è capire quale comportamento lo ha attivato”, facendo riferimento “alle linee guida tecniche e di qualità di Google per valutare il tuo sito web in base a esse”.

Questo è un lavoro da svolgere con calma e accuratezza, perché “non è il momento di lasciare che il senso di fretta, stress e ansia prendano il comando”; è importante “raccogliere tutte le informazioni, fare piazza pulita degli errori e dei problemi del sito, aggiustare tutto e solo dopo inviare una richiesta di riconsiderazione”.

Come recuperare dalle azioni manuali

Una convinzione diffusa, ma sbagliata, è “che quando un sito è colpito da un’azione manuale e perde traffico e posizionamento, tornerà allo stesso livello una volta revocate le azioni manuali”. Quel ranking, infatti, è frutto (anche) dell’uso di strumenti non consentiti (che hanno provocato la penalizzazione), quindi non ha senso che, dopo la pulizia e la revoca dell’azione manuale, il sito possa tornare esattamente dov’era prima.

Comunque, tiene a sottolineare l’esperto, “qualsiasi sito Web può essere ripristinato da quasi tutti gli scenari” e i casi in cui una proprietà è considerata “irrecuperabile sono estremamente rari”. È però importante che il recupero inizi da “una piena comprensione di ciò con cui hai a che fare”, con la consapevolezza che “azioni manuali e problemi algoritmici possono coesistere” e che “a volte, non inizierai a vedere nulla prima di stabilire le priorità e risolvere tutti i problemi nell’ordine giusto”.

In realtà “non esiste un modo semplice per spiegare cosa cercare e i sintomi di ogni singolo problema algoritmico”, e quindi “il consiglio è di pensare alla tua proposta di valore, al problema che stai risolvendo o alla necessità a cui stai rispondendo, senza dimenticare di chiedere feedback ai tuoi utenti, invitandoli a esprimere opinioni sulla tua attività e sull’esperienza che fornisci sul tuo sito, o su come si aspettano che tu migliori”.

I takeaway sui cali algoritmici o derivanti da azioni manuali

In conclusione, Pedro Dias ci lascia quattro pillole per sintetizzare il suo (esteso) contributo alla causa dei siti penalizzati da aggiornamenti algoritmici o azioni manuali.

  1. Ripensa la tua proposta di valore e il tuo vantaggio competitivo, perché “avere un sito Web non è di per sé un vantaggio competitivo”.
  2. Tratta il tuo sito web come un prodotto e innova costantemente: “se non vai avanti, verrai superato, mentre i siti di successo migliorano ed evolvono continuamente”.
  3. Ricerca i bisogni dei tuoi utenti attraverso la User Experience: “la priorità sono i tuoi utenti, e poi Google”, per cui è utile “parlare e interagire con i tuoi utenti e chiedere le loro opinioni per migliorare le aree critiche”.
  4. La SEO tecnica è importante, ma da sola non risolverà nulla: “se il tuo prodotto / contenuto non ha appeal o valore, non importa quanto sia tecnico e ottimizzato, e quindi è cruciale non perdere la value proposition”.