È trascorsa una settimana dall’annuncio di Pandu Nayak, ma finora Google BERT non sembra aver provocato gli scossoni in SERP anticipati (e temuti): “il più grande salto in avanti” nella storia del sistema di Ricerca di Google, che avrebbe dovuto impattare almeno su una query su 10, finora invece non sembra aver lasciato tracce evidenti di sé.

Google BERT, promesse non (ancora) mantenute?

Ricapitolando velocemente, lo scorso 25 ottobre il vicepresidente di Search ha annunciato ufficialmente l’introduzione di una innovativa tecnica di rete neurale artificiale per favorire la comprensione del linguaggio umano: Bidirectional Encoder Representations from Transformers, o più semplicemente BERT. Questo sistema, applicato all’algoritmo del motore di ricerca, consente di trattare automaticamente le informazioni scritte o vocali in una lingua naturale e di comprendere meglio ciò che è importante nelle query.

Pandu Nayak aveva parlato espressamente di “più grande salto in avanti degli ultimi 5 anni” per il motore di ricerca e di effetti sul 10 per cento delle query di ricerca in inglese negli Stati Uniti. Come dicevamo, l’analisi delle SERP non evidenzia cambiamenti così profondi nel posizionamento e nelle risposte, ma probabilmente ciò dipende dalla natura dell’algoritmo.

A cosa serve Google BERT

L’intervento di aggiornamento ha una funzione utile soprattutto per le query più lunghe e conversazionali, o per le ricerche in cui le preposizioni hanno influenza sul significato: prima di BERT, l’algoritmo non riusciva a comprendere bene il contesto delle parole nella stringa di ricerca, come si spiegava negli esempi forniti, mentre ora è possibile fare ricerche nel modo più naturale e personale.

I tracker non riescono a monitorare le long tail

Considerando questa premessa, appare verosimile che non sia (ancora?) possibile effetti concreti dell’aggiornamento nelle SERP perché usiamo strumenti di tracking che non possono analizzare con precisione le long tail keyword, le query più lunghe e diluite, quelle appunto interessate dal nuovo algoritmo.

Una posizione del genere è stata espressa da Pete Meyers di Moz, che ha ammesso che il tool MozCast “tiene traccia dei termini più brevi e dei cosiddetti head terms, quindi non dei tipi di frasi che probabilmente richiedono l’elaborazione del linguaggio naturale (NLP) di BERT”. Simili le valutazioni di RankRanger, altro tool statunitense, che annota solo qualche fluttuazione leggera nelle SERP.

Non ci sono nuovi stravolgimenti come con Panda e Penguin

Insomma, chi si aspettava delle rivoluzioni come quelle avvenute in occasione del rilascio degli algoritmi Panda e Penguin di Google (o dei broad core update più recenti) è rimasto deluso: i risultati di ricerca principali negli Stati Uniti, per ora, sono rimasti sostanzialmente invariati, con qualche oscillazione che rientra in quella che possiamo definire come “attività di routine”.

Nessun intervento da fare sui siti

C’è poi un’altra questione su cui soffermarsi, riprendendo le considerazioni di Barry Schwartz su Search Engine Land: non c’è un lavoro di ottimizzazione onpage da fare per BERT. La funzione del sistema è aiutare Google a capire meglio le ricerche degli utenti e il search intent nascosto dietro al linguaggio naturale: questo significa, però, che si può smettere (definitivamente) di pensare al SEO copywriting come tipo di scrittura finalizzata alle macchine e al motore di ricerca, passando a scrivere bene per gli utenti reali che leggeranno i contenuti (e per i sistemi sempre più capaci di interpretare le parole come gli umani).

Come scrivere per Google BERT? Pensando alle persone

Il consiglio finale per scrivere per Google è di continuare a produrre contenuti di qualità per le persone, cercare di rendere speciali le pagine fornendo informazioni utili e vicine al loro intento originale, che abbiano un purpose come diceva qualche tempo fa Martin Splitt a proposito dei fattori SEO onsite. E magari usare SEOZoom con i suoi tool, che sono sempre più “a prova di aggiornamenti”.