Algoritmi dei motori di ricerca: cosa sono e come funzionano

Tempo di lettura : 7 minuti

Non sempre è sufficiente conoscere le tattiche e i trucchi della SEO per ottenere buoni risultati: per riuscire a raggiungere gli obiettivi e lavorare in modo più strategico e scientifico è opportuno anche avere una conoscenza di base di come funziona tutto il sistema che sta dietro alle SERP. In altri termini, sarebbe utile capire come funzionano gli algoritmi dei motori di ricerca e, quindi, scoprire perché alcune tattiche sono migliori di altre: ecco un’infarinatura su questo mondo, che resta comunque avvolto nel mistero.

L’algoritmo di Google non è una formula

Secondo la definizione di Wikipedia, un algoritmo “è un procedimento o programma che risolve una classe di problemi attraverso un numero finito di istruzioni elementari, chiare e non ambigue”. Nel suo articolo su Search Engine Journal, Dave Davies si rifà alla definizione più generale, ovvero “un processo o un insieme di regole da seguire nei calcoli o in altre operazioni di risoluzione dei problemi, soprattutto da un computer”.

In entrambi i casi, conta capire un punto fondamentale: un algoritmo non è una formula.

L’esempio del menu e della ricetta

È sempre Davies a provare a semplificare la comprensione di un sistema così complesso attraverso l’esempio di un menu: da buon canadese, ci dice l’esperto, ama mangiare il classico “Roast Beef with gravy” accompagnato da altri ingredienti, per la cui preparazione servono:

  • Arrosto di manzo
  • Rafano
  • Yorkshire pudding
  • Fagioli verdi
  • Purè di patate
  • Gravy (salsa composta dal fondo di cottura della carne).

L’arrosto di manzo deve essere stagionato e cucinato perfettamente, spiega Davies, che poi aggiunge altri dettagli: “il condimento abbinato l’arrosto sarebbe un esempio di una formula – quanto di ogni cosa è necessario per produrre un prodotto; una seconda formula utilizzata sarebbe la quantità di tempo e la temperatura a cui l’arrosto deve essere cotto, dato il suo peso, e la stessa operazione si ripete per ogni elemento nell’elenco”.

Quindi, “a un livello molto semplice avremmo 12 formule (6 ingredienti x 2 – uno per le misurazioni e l’altro per il tempo di cottura e la durata in base al volume), che creano un algoritmo con l’obiettivo di creare uno dei pasti preferiti di Dave”, a cui aggiungere “un’altra formula, per considerare la quantità di cibi diversi che vorrei sul mio piatto”, scrive.

E questo senza nemmeno includere “le varie formule e algoritmi necessari per produrre gli ingredienti stessi, come allevare una mucca o coltivare patate”.

Ma questo è solo l’algoritmo su misura delle preferenze di Davies: “dobbiamo considerare che ogni persona è diversa e vorrà quantità diverse di ciascun ingrediente e potrebbe desiderare condimenti diversi”. Si può quindi personalizzare quell’algoritmo per dare a ognuno il risultato ideale, aggiungendo una formula per ogni persona.

Un algoritmo di algoritmi

Questa lunga parentesi sembra averci portato lontano dal tema del nostro articolo, ma in realtà un algoritmo e un tavolo da pranzo hanno molte cose in comune, e per dimostrarlo Davies elenca alcune delle caratteristiche principali di un sito Web (limitandosi a 6 per un confronto diretto):

  • URL
  • Contenuti
  • Collegamenti interni
  • Link esterni
  • Immagini
  • Velocità.

Come già visto con l’algoritmo per la cena, “ognuna di queste aree è ulteriormente suddivisibile utilizzando diverse formule e, di fatto, diversi sotto-algoritmi”. E quindi, il primo passo per capire come funziona il sistema è considerare la presenza non di un solo algoritmo, ma di più algoritmi.

Tanti algoritmi, un solo algoritmo

È però importante tenere presente che, pur essendoci “molti algoritmi e innumerevoli formule in gioco, c’è ancora un solo algoritmo”: il suo compito è determinare come questi altri sono ponderati per produrre i risultati finali che vediamo sulla SERP, ci spiega l’esperto.

Secondo Davies, “è perfettamente legittimo riconoscere che al vertice esiste un tipo di algoritmo – l’unico algoritmo per dominarli tutti, per così dire (citando Il Signore degli Anelli) – ma senza dimenticare che ci sono innumerevoli altri algoritmi”, che generalmente sono quelli “a cui pensiamo quando stiamo valutando come incidono sui risultati di ricerca”.

L’algoritmo è una ricetta perfetta

Tornando all’analogia, ci sono una moltitudine di caratteristiche diverse di un sito Web che vengono valutate, “proprio come abbiamo un certo numero di elementi alimentari che ci ritroviamo nel nostro piatto”.

Per produrre il risultato desiderato, “dobbiamo avere un gran numero di formule e sotto-algoritmi per creare ogni elemento sul piatto e l’algoritmo master per determinare la quantità e il posizionamento di ciascun elemento”.

Allo stesso modo, quando usiamo l’espressione algoritmo di Google ci riferiamo in realtà a “una massiccia raccolta di algoritmi e formule, ciascuno impostato per svolgere una funzione specifica e raccolto insieme da un algoritmo-capo o, oserei dire, algoritmo core per posizionare i risultati”.

Gli esempi di algoritmi

Nell’articolo si ricordano poi alcuni tipi di algoritmo di Google per esemplificare il discorso:

  • Algoritmi come Panda, che aiutano Google a giudicare, filtrare, penalizzare e premiare i contenuti in base a caratteristiche specifiche (e lo stesso Panda probabilmente includeva al suo interno una miriade di altri algoritmi).
  • L’algoritmo Penguin per giudicare i link e identificare lo spam. Tale algoritmo richiede certamente dati da altri algoritmi preesistenti che sono responsabili della valutazione dei collegamenti e probabilmente di alcuni nuovi algoritmi incaricati di comprendere le caratteristiche comuni del link spam, in modo che il più grande algoritmo Penguin possa fare il suo lavoro.
  • Algoritmi specifici di un’attività/task.
  • Algoritmi organizzativi.
  • Algoritmi responsabili della raccolta di tutti i dati e del loro inserimento in un contesto che produca il risultato desiderato, una SERP che gli utenti troveranno utile.

Il ruolo delle entità per gli algoritmi

In questo contesto, un elemento che sta ricevendo sempre più attenzioni è l’analisi delle entità, che sappiamo essere “cose o concetti singolari, unici, ben definiti e distinguibili”.

Tornando all’analogia della cena, Davies ci mostra quali sono le entità interessate: lui stesso, ogni membro della sua famiglia e anche il suo nucleo familiare (un’entità a sé stante), e poi ancora l’arrosto e ogni ingrediente di cui è composto sono altre entità singole, e così pure lo Yorkshire pudding e la farina che serve per farlo.

Perché Google vede e usa le entità

Google vede il mondo come una raccolta di entità, e questo è stato un passo decisivo nel processo di miglioramento degli algoritmi di ricerca.

Proseguendo il suo ragionamento, Davies spiega che al suo tavolo da pranzo ci sono “quattro entità individuali che avrebbero lo stato di stanno mangiando e una serie di entità che invece sono mangiate: classificarci tutti in questo modo ha molti vantaggi per Google rispetto alla semplice valutazione delle nostre attività come una serie di parole”. A ogni entità che mangia possono essere assegnate le entità che ha nel suo piatto (roast beef, rafano, fagiolini, purè di patate, budino dello Yorkshire e così via).

Google utilizza questo stesso tipo di classificazione per giudicare un sito Web. Ogni pagina web è un’entità, esattamente come ogni persona seduta al tavolo da pranzo.

L’entità globale che li rappresenta tutti (chiamata “Davies”) sarebbe “cena roast beef”, ma ogni singola entità che rappresenta un individuo o una pagina è diversa. In questo modo, Google può facilmente classificare e giudicare l’interconnessione dei siti Web e del mondo in generale.

Il lavoro degli algoritmi con le entità

Fondamentalmente, i motori di ricerca non hanno il compito di giudicare un solo sito Web, ma devono classificarli tutti. Non si concentrano quindi solo sulla entità Davies vista come cena roast beef, ma anche sull’entità dei vicini Robinson che riguarda lo stir fry. Ora, se un’entità esterna nota come Moocher vuole sapere dove mangiare, le opzioni possono essere classificate dai Moocher in base alle loro preferenze o query.

Tutto ciò è importante per comprendere gli algoritmi di ricerca e il funzionamento delle entità: anziché limitarsi a vedere cosa tratta un sito web nel suo complesso, Google capisce “che il mio arrosto di manzo e la salsa di manzo sono correlati e, di fatto, provengono dalla stessa entità principale”.

E questo è decisivo anche per capire cosa serve per rankare, come spiega ancora l’articolo. Se Google capisce che una pagina web riguarda il roast beef, mentre un’altra pagina che “si collega ad essa riguarda il beef dip (tipico panino canadese prodotto con gli avanzi del roast beef)”, è assolutamente importante che “Google sappia che roast beef e beef dip sono ricavati dalla stessa entità principale”.

Le applicazioni per determinare la rilevanza delle pagine

In questo modo, gli algoritmi “possono assegnare rilevanza a questo link in base alla connessione di queste entità”.

Prima che l’idea delle entità entrasse nella Ricerca, i motori potevano assegnare la pertinenza e la rilevanza solo in base a parametri come word density, word proximity e altri elementi facilmente interpretabili e manipolabili.

Le entità sono molto più difficili da manipolare: “o una pagina riguarda un’entità, o non è attinente”.

Attraverso il crawling del Web e la mappatura dei modi comuni in cui le entità si relazionano, i motori di ricerca possono prevedere quali relazioni debbano avere il maggior peso.

Come funzionano gli algoritmi

In definitiva, è importante capire come funzionano gli algoritmi per aggiungere contesto a ciò che stiamo sperimentando o leggendo.

Quando Google annuncia un aggiornamento dell’algoritmo (come nel caso del prossimo Google Page Experience), ciò che viene aggiornato è probabilmente un piccolo pezzo di un puzzle molto grande; invece, i broad core update sono modifiche significative e di ampia portata al motore di base di Google, una sorta di tagliando periodico per garantire sempre l’efficacia dei risultati.

Entrare in quest’ottica può aiutare a interpretare “quali aspetti di un sito o del mondo vengono adattati in un aggiornamento e in che modo tale adeguamento si adatta al grande obiettivo del motore”.

La rilevanza delle entità

In questo senso, è cruciale capire quanto contano le entità negli algoritmi di ricerca oggi: hanno una rilevanza enorme, destinata a crescere, e si basano a loro volta su algoritmi che le identificano e riconoscono le relazioni tra loro.

Per nominare un paio di vantaggi, “conoscere questo meccanismo ci è utile non solo per capire quale contenuto è prezioso (ovvero, quello che si avvicina maggiormente alle entità di cui stiamo scrivendo), ma anche per sapere quali link saranno probabilmente giudicati in maniera più favorevole e pesante”.

Tutto si basa sul search intent

Gli algoritmi di ricerca funzionano “come una vasta raccolta di altri algoritmi e formule, ciascuno con i propri scopi e compiti, per produrre risultati di cui un utente sarà soddisfatto”, scrive Davies nelle battute finali.

Questo vastissimo sistema include algoritmi progettati specificamente per comprendere le entità e il modo in cui le entità si relazionano tra loro, al fine di fornire rilevanza e contesto agli altri algoritmi.

Inoltre, secondo l’esperto, “esistono algoritmi per monitorare solo questo aspetto dei risultati e apportare modifiche laddove si ritiene che le pagine di classificazione non soddisfino il search intent in base alle modalità di interazione degli utenti stessi”, ovvero che analizzano il search behavoiur, come dicevamo parlando della search journey.

Perché, come ricordano spesso anche le voci pubbliche di Mountain View, il compito di Google è fornire risposte precise agli utenti.

TOP