C’è sempre grande interesse per le dichiarazioni ufficiali delle persone che sono “dietro” a Google e al suo complesso algoritmo; anche noi ci siamo concentrati spesso sugli interventi di John Mueller, di Danny Sullivan o di Pandu Nayak, e questa volta è stato Gary Illyes, Webmaster Trends Analyst di Google, a chiarirci un po’ le idee su che cos’è e come funziona il RankBrain e ad aggiungere qualche informazione sui fattori di ranking del motore di ricerca più famoso e utilizzato del mondo.

Gary Illyes ospite dell’AMA su Reddit

L’occasione è stata fornita dalla partecipazione dell’esperto a un AMA su Reddit, appuntamento in cui una personalità si offre al pubblico e risponde alle domande inviate (AMA sta infatti per Ask Me Anything): nel corso dell’incontro virtuale, molto partecipato, Illyes ha avuto modo di intervenire con tante risposte utili per il nostro lavoro e per le attività SEO, rivelando qualche dettaglio interessante sul come funziona Google (ma, come sempre, senza mai scendere in dettagli eccessivi).

Il Googler Gary Illyes (foto da www.milosbelcevic.me)Come funziona il RankBrain di Google

Uno dei punti cruciali del questionario sottoposto al Webmaster Trends Analyst è stato quello relativo al funzionamento del RankBrain di Google, una tecnologia di machine learning che da qualche anno viene utilizzata dagli algoritmi di Big G per contribuire alla conformazione delle SERP, ordinando miliardi di pagine note e individuando le più rilevanti per ogni query di ricerca. Nello specifico, un utente chiedeva delucidazioni sul funzionamento del sistema, per capire se effettivamente analizzasse e impiegasse segnali UX di qualche tipo, come ad esempio Tempo di sosta, Frequenza di rimbalzo, Frequenza di click e così via.

Che cos’è il RankBrain

Nella sua risposta, Illyes ha fornito una spiegazione su che cos’è il RankBrain, dicendo in sintesi che rappresenta “una delle componenti e dei fattori di ranking per la gestione delle query”, basato su Intelligenza Artificiale, che aiuta il motore di ricerca a comprendere e interpretare meglio la query e di conseguenza a classificare pagine più pertinenti per quella richiesta. In maniera ironica, Illyes ha definito il RankBrain una “PR-sexy machine learning ranking component”, che usa i dati di ricerca storici per prevedere su cosa (con maggior livello di probabilità) potrebbe cliccare un utente per una query inedita.

I SEO non devono essere ossessionati da questo fattore di ranking

Sempre con lo stesso stile leggero e ironico, l’analyst ha aggiunto che questo sistema è un “capolavoro di ingegneria davvero interessante che ha salvato i nostri butts innumerevoli volte”, quando ad esempio gli algoritmi tradizionali erano del tipo “oh guarda, c’è un ‘non’ nella stringa di query! Ignoriamolo del tutto”. Ma, tornando serio, Illyes dice anche che il RankBrain ” in genere si basa solo su dati di (a volte) mesi precedenti su ciò che è accaduto sulla pagina dei risultati stessa, non sulla pagina di destinazione”. Pertanto, concentrarsi su dwell time, CTR o altre teorie è quasi completamente inutile, perché la ricerca, la “Search”, è molto più semplice di quanto pensino le persone. Anche Illyes, in pratica, si aggiunge all’elenco di “Googlers” che invita i SEO a smettere di ossessionarsi al RankBrain, perché sarebbe solo una perdita di tempo provare a comprendere il suo funzionamento completo e non c’è possibilità di ottimizzare contenuti per questo fattore di ranking.

I parametri per le SERP di Google

A questo proposito, il Webmaster Trend Analyst di Mountain View ha anche dedicato un veloce approfondimento su quali sono i fattori di ranking di Google che, come abbiamo detto svariato volte, sono un complesso di oltre 200 parametri differenti e non completamente noti a nessuno al di fuori di chi concretamente fa parte della “macchina”. Una delle occasioni pubbliche in cui si è parlato di come funziona Google Search è stata la testimonianza al Congresso degli Stati Uniti d’America del CEO Sundar Pichai, che menzionò 3 “signals” come “relevance, freshness, popularity” (pertinenza, freschezza/originalità e popolarità), a cui come sappiamo si aggiungono altri come la velocità del sito o la famosa triade del paradigma EAT (esperienza, autorevolezza e fiducia).

Quali sono i fattori di ranking di Google Fattori di Ranking su Google, le parole di Gary Illyes

Sollecitato da un utente, che chiedeva indicazioni così da ottimizzare il suo sito rispetto a questi fattori e così migliorarne il ranking, Illyes ha aggiunto qualche altro dettaglio, ovvero “country the site is local to, rankbrain, pagerank/links, language”, in italiano “Paese in cui il sito è localizzato, RankBrain, Pagerank, link in ingresso, linguaggio”, concludendo con un altro fattore piuttosto bizzarro, ovvero “pornyness”, un neologismo che dovrebbe indicare il livello di materiale “pornografico”. Sulla questione local, invece, quando si tratta query di intent specifici legati a un’area “se Google ritiene che i contenuti locali siano più pertinenti per l’utente, potrebbe classificare i contenuti all’interno di tale Paese più in alto rispetto ad altri contenuti”, utilizzando anche le informazioni di Country Code Top Level Domain o Hreflang che forniscono dettagli che aiutano a determinare che tale dominio è più pertinente per le persone in un determinato Paese, ottenendo non un vantaggio in termini di ranking, ma la possibilità di ricevere traffico più mirato da parte del motore di ricerca.

Non c’è limite ai link interni tra pagine

Oltre a queste discussioni per così dire generali e filosofiche, il Googler ha fornito anche dei consigli molto più pratici sulla gestione di un progetto online, soprattutto riguardo aspetti come il file robots.txt e la strutturazione di link interni alle pagine. Su quest’ultimo tema, nello specifico, Illyes ha negato che vi sia la possibilità di una penalizzazione da parte di Google per un uso eccessivo di collegamenti interni, come invece ventilato da un utente: le sue parole precise sono state “puoi abusare di link interni quanto vuoi, per quanto ne so”, chiarendo i dubbi della persona che si chiedesse se la strategia di usare ripetutamente un’ancora rilevante (attenzione, non keyword stuffing!) e aggiungere collegamenti interni da pagine pertinenti (anche a dozzine) a una pagina specifica potesse essere interpretata come “manipolativa” da parte di Google.

Googlebot rispetta sempre il file robots.txt

Per quanto riguarda il file robots.txt, la notizia (per così dire) è che Google lo rispetta “per quello che è destinato a fare”, pertanto Googlebot seguirà le direttive che gli sono state fornite all’interno di tale file: se si segnalano direttive in conflitto o informazioni non valide, il Bot lavorerà come suo solito, mentre al contrario se il robots.txt è impostato correttamente, Google obbedirà. Non esiste una soluzione di mezzo, come “a volte può essere ignorato”, secondo Illyes.

Il compito del SEO è rendere i siti navigabili

Le altre risposte sono state poi incentrate a fornire qualche spunto futuro a SEO e Webmaster; ad esempio, il Webmaster Trend Analyst ha affermato che Google sta spostando più risorse ingegneristiche verso la ricerca di immagini e video, due ambiti ancora sottovalutati ma che, a suo dire, hanno un potenziale enorme. La chiusura, invece, è dedicata a una sorta di “augurio”, ovvero che SEO e Webmaster smettano di ossessionarsi sui dettagli, “aggiornamenti stupidi” e tornino a concentrarsi sui concetti di base, come rendere il sito navigabile (per la precisione, Illyes ha scritto precisamente “MAKE THAT DAMN SITE CRAWLABLE“, tutto maiuscolo e urlato) e lavorare in sintonia con gli sviluppatori del sito per puntare all’essenziale.

GM