Algoritmi dei motori di ricerca: cosa sono e come funzionano

Provaci
Mettici alla prova
Analizza il tuo sito
Seleziona la lingua del database:

Sono il complesso di formule matematiche, regole e criteri complessi che determinano ciò che la maggior parte delle persone, a cominciare da noi stessi, vede quando naviga sul Web: parliamo degli algoritmi dei motori di ricerca, le “misteriose” macchine che sono responsabili di analizzare tutte le pagine web presenti nell’Indice per procedere poi alla loro classificazione, e quindi all’ordine in cui le varie pagine compaiono nelle SERP, le pagine dei risultati dei motori di ricerca. In un certo senso, quindi, gli algoritmi sono la spina dorsale del modo in cui i motori di ricerca come Google, Bing e Yahoo! eseguono il ranking delle pagine web da mostrare in risposta alla query di ricerca di un utente e, seppur nell’impossibilità di svelare pienamente il “mistero”, oggi cerchiamo di capire come funzionano questi sistemi.

Che cosa sono gli algoritmi dei motori di ricerca

Gli algoritmi dei motori di ricerca possono essere definiti come l’insieme di regole e procedure utilizzate dai search engine per determinare la rilevanza e l’importanza delle pagine web, al fine di classificarle in risposta a una specifica query di ricerca.

Questi algoritmi sono fondamentali per il funzionamento dei motori di ricerca, poiché aiutano a filtrare l’enorme quantità di informazioni disponibili su Internet e a fornire agli utenti i risultati più pertinenti e utili.

Sono quindi strumenti sofisticati che aiutano a organizzare e a rendere accessibile l’enorme mole di informazioni e contenuti presenti online, supportando la mission di aiutare gli utenti a trovare le migliori risposte alle loro domande e svolgendo, pertanto, un ruolo fondamentale dietro le quinte nel determinare quali risultati vediamo quando effettuiamo una ricerca online.

Comprendere gli algoritmi e la loro importanza

In ambito informatico generale, si chiama algoritmo una serie di istruzioni dettagliate e ben definite che un computer segue per risolvere un problema o eseguire un compito. È come una ricetta che il computer segue, passo dopo passo, per arrivare al risultato finale. Gli algoritmi possono essere semplici, come l’ordinamento di una serie di numeri, o estremamente complessi, come l’analisi di grandi quantità di dati per prevedere le tendenze del mercato.

Un algoritmo di ricerca è invece quello che già interessa più da vicino le nostre tematiche, perché è l’insieme esclusivo di formule che un motore di ricerca utilizza per recuperare informazioni specifiche archiviate all’interno di una struttura dati e determinare il significato di una pagina web e del suo contenuto.

Come sappiamo, i motori di ricerca sono essenzialmente macchine di risposta che, sollecitati da un utente che lancia un input, esaminano miliardi di contenuti che hanno nel loro archivio (l’Indice) e valutano migliaia di fattori per determinare quale pagina ha maggiori probabilità di rispondere alla domanda posta e soddisfare l’intento originario della persona.

In estrema sintesi, l’attività dei motori di ricerca si articola in tre fasi:

  • Crawling o scansione. Attraverso appositi programmi chiamati “crawler” o “spider”, i motori di ricerca esplorano automaticamente il web e incontrano i nuovi contenuti disponibili (pagine web, PDF, immagini, video eccetera): i crawler seguono i link da una pagina all’altra, raccogliendo informazioni su ogni risorsa che incontrano.
  • Indicizzazione. Una volta che una pagina è stata scoperta, le informazioni raccolte dai crawler vengono analizzate e catalogate in un enorme database, chiamato Indice, da cui il nome indicizzazione. In questa fase, gli algoritmi del motore di ricerca analizzano il contenuto della pagina, i link in entrata e in uscita e altri fattori per determinare di cosa tratta la pagina e come dovrebbe essere classificata.
  • Ranking o classificazione. Quando un utente inserisce una query in un motore di ricerca, l’algoritmo cerca nel suo database le pagine che sono più pertinenti a questo input: tutte le pagine vengono poi ordinate, o “classificate”, in base a una serie di fattori, tra cui la rilevanza del contenuto, l’autorità della pagina, la qualità dei link in entrata, l’esperienza dell’utente e molti altri. Il risultato di questo processo di ranking è la lista di risultati di ricerca che vediamo quando effettuiamo una ricerca.

Pertanto, gli algoritmi servono ai motori di ricerca per analizzare e indicizzare il contenuto delle pagine web, e anche per supportarli nel determinare la pertinenza e la qualità di una pagina web in merito alla query di ricerca di un utente. Ogni motore di ricerca crea, gestisce, utilizza e aggiorna il suo specifico algoritmo di ricerca.

Pertanto, possiamo parlare di algoritmo di Google, algoritmo di Bing o algoritmo di Yahoo!, ognuno dei quali utilizza criteri particolari e complessi per svolgere il suo lavoro, prendendo in considerazione i segnali reputati più utili al raggiungimento dell’obiettivo di fornire risultati di ricerca più accurati e pertinenti.

Algoritmi o algoritmo di Google: quanti sono gli algoritmi?

A questo punto è opportuno aprire una piccola parentesi “lessicale”, ma non solo. Spesso, per semplicità e comodità, parliamo di “algoritmo di Google” al singolare, anche se ciò significa estremizzare una realtà molto più complessa. Google infatti utilizza una serie di algoritmi e tecniche di apprendimento automatico per analizzare e classificare le pagine web, che lavorano insieme, ognuno con un compito specifico, per fornire i risultati di ricerca più pertinenti e utili.

Ad esempio, Google ha utilizzato storicamente un algoritmo chiamato PageRank per determinare l’autorità e l’importanza di una pagina web in base alla quantità e alla qualità dei link che la collegano ad altre pagine, mentre l’altro algoritmo chiamato Panda è stato progettato per penalizzare i siti con contenuti di bassa qualità; a questi si aggiungono altri algoritmi specifici per la ricerca di immagini, la ricerca di notizie, la ricerca locale e molto altro, che formano appunto il potente insieme di “algoritmi di Google“, al lavoro ogni istante per rispondere alle query degli utenti.

Da qualche tempo Google ha condiviso la nomenclatura che utilizza per compiere questi processi, introducendo il concetto di “Google Search ranking systems” o sistemi di ranking della Ricerca Google, che rappresentano ogni algoritmo di ranking automatizzato che partecipa al lavoro di analisi dei fattori e segnalazione delle centinaia di miliardi di pagine web e altri contenuti da inserire nell’Indice, con l’obiettivo di “presentare i risultati più pertinenti e utili, il tutto in una frazione di secondo”. Alcuni di questi sistemi fanno parte dei più ampi sistemi di classificazione di Google, ovvero le tecnologie sottostanti che producono risultati di ricerca in risposta alle query, mentre altri sono coinvolti in specifiche esigenze di classificazione.

Come funzionano gli algoritmi: uno sguardo generale

Ovviamente le formule dei motori di ricerca sono segrete e destinate a restare tali, ma possiamo comunque provare a descrivere (un po’) il funzionamento degli algoritmi, che almeno a grandi linee seguono processi abbastanza standardizzati.

Ad esempio, la priorità assoluta è rispondere prontamente alle esigenze dell’utente, rendendo fluida e positiva la sua esperienza: Google è riuscito a diventare il motore di ricerca più popolare del pianeta grazie ai suoi algoritmi complessi che migliorano il processo di ricerca utilizzando tattiche sofisticate che forniscono agli utenti le informazioni che cercano, e facendo tutto questo in pochissimi istanti.

Gli algoritmi dei motori di ricerca in genere analizzare centinaia di fattori – in particolare, abbiamo visto come Google utilizzi anche oltre 200 segnali di ranking per determinare quali risultati fornire e in quale ordine – tra cui la pertinenza dei contenuti, l’utilizzo delle parole chiave rilevanti, le prestazioni della pagina, l’ottimizzazione per i dispositivi mobili, i backlink, il contesto della query e così via, che sono globalmente ponderati e “trasformati” in formule matematiche complesse, in modo da procedere rapidamente alla classificazione delle pagine web.

Gli algoritmi dei motori di ricerca e l’impatto sulla SEO

Gli algoritmi del motore di ricerca sono quindi una raccolta di formule che servono a determinare la qualità e la pertinenza di una pagina web rispetto alla query dell’utente. E quindi, se vogliamo che il nostro contenuto abbia visibilità su Google e raggiunga un buon posizionamento, dobbiamo cercare di entrare nelle grazie degli algoritmi, cercare di individuare quali sono i criteri che premiano e tenerci invece alla larga dalle tattiche oggettivamente vietate, che rischiano di avere l’effetto opposto.

Per ottenere buoni risultati, quindi, non sempre è sufficiente essere certi di conoscere le tattiche e i trucchi della SEO: per riuscire a raggiungere gli obiettivi e lavorare in modo più strategico e scientifico è opportuno anche avere una conoscenza di base di come funziona tutto il sistema che sta dietro alle SERP. In altri termini, è utile avere almeno un’infarinatura su come funzionano gli algoritmi dei motori di ricerca e, quindi, scoprire perché alcune tattiche sono migliori di altre, pur restando sempre su temi “avvolti nel mistero”.

Gli algoritmi dei motori di ricerca hanno infatti un impatto significativo sulla SEO e sul traffico organico, e c’è un altro aspetto da non trascurare: queste formule e ricette sono in continua evoluzione, con modifiche frequenti e regolari che servono a migliorare l’esperienza dell’utente e ad assicurare che gli utenti trovino sempre la migliore risposta alle loro domande.

Ne consegue, quindi, che anche chi lavora online non può fermarsi e deve continuare a tenere il passo con gli ultimi aggiornamenti degli algoritmi per garantire che le strategie SEO rimangano efficaci, puntando a tenere elevata la qualità e la pertinenza dei contenuti della pagina di destinazione rispetto alle esigenze e agli intenti del pubblico e controllando anche gli altri aspetti rilevanti delle pagine.

Cosa e quali sono gli aggiornamenti algoritmici

È Google stesso a riferirci che cambia i suoi algoritmi centinaia di volte ogni anno, tra interventi più sensibili e modifiche che invece non hanno particolari impatti sulle SERP e sul ranking dei siti.

In effetti, non tutti gli update dell’algoritmo hanno il potere di influenzare in modo significativo le pagine dei risultati, rimescolando il ranking dei siti, perché in verità ci sono differenti tipologie di aggiornamenti algoritmici lanciati da Google.

In particolare ne riconosciamo tre:

  • Broad core update, gli aggiornamenti principali. Sono eseguiti varie volte durante l’anno (in genere su base trimestrale o più ampia) e regolano l’importanza di diversi fattori di ranking, agendo su ampia scale e a livello globale.
  • Aggiornamenti chiave specifici. Sono interventi non molto frequenti, che interessano un problema specifico dell’algoritmo di ricerca o un sistema di ricerca, come Helpful Content per i contenuti utili o Reviews per le recensioni.
  • Aggiornamenti minori. Implementati addirittura su base quotidiana o settimanale, questi interventi solitamente non creano grandi cambiamenti visibili alle prestazioni e all’analisi del sito; spesso si tratta di piccole modifiche che migliorano l’esperienza dell’utente che effettua la ricerca e non influiscono sul posizionamento dei siti Web di alta qualità o su larga scala.

Anche se, come detto più volte, Google mantiene privati ​​i dettagli del suo algoritmo di classificazione delle ricerche, possiamo immaginare che aggiorni regolarmente le sue formule per migliorare la qualità dei risultati di ricerca per riflettere i cambiamenti nei comportamenti degli utenti e i progressi tecnologici. Non meno importante, è anche un modo per cercare di restare sempre un passo avanti rispetto agli attori sleali o agli spammer che cercano visibilità sulla sua piattaforma.

Come prevenire gli effetti negativi degli aggiornamenti degli algoritmi

E quindi, gli algoritmi dei motori di ricerca sono meccanismi complessi in continua evoluzione (per giunta): ciò significa, innanzitutto, che è un errore pensare di creare un contenuto evergreen che possa avere successo per sempre, perché i successivi aggiornamenti rischiano di rendere la nostra strategia obsoleta e quindi inefficace.

D’altra parte, però, è sbagliato anche concentrarsi eccessivamente sugli algoritmi dei motori di ricerca, adattando freneticamente le strategie di marketing a ogni piccola modifica: è più utile e opportuno guardare al quadro più ampio, cercando di comprendere le domande e i bisogni del nostro pubblico, perché solo così possiamo ridurre la nostra dipendenza dalle modifiche degli algoritmi e controllare, almeno in parte, quanto questi influenzano le nostre iniziative.

Gli aggiornamenti dei motori di ricerca e dei loro algoritmi possono infatti essere imprevedibili come il meteo: l’unica cosa che sappiamo con certezza è che ci saranno, con effetti che possono essere di vario tipo. E allora, ciò che possiamo fare è farci trovare preparati e pronti al momento giusto, lavorando al alcuni aspetti chiave sulle nostre pagine come quelli qui sotto elencati.

  • La qualità prima di tutto

Nonostante gli aggiornamenti degli algoritmi, una cosa rimane costante: la qualità dei contenuti sulle pagine di destinazione ha un effetto positivo sulle conversioni. I motori di ricerca, e in particolare Google, prestano molta attenzione alla qualità della pagina e alla pertinenza delle parole chiave, e questo è il primo punto da garantire sul nostro sito.

  • Oltre le parole chiave

Gli aggiornamenti degli algoritmi di Google tendono a spostare l’attenzione dalle parole chiave verso frasi e sfumature più a coda lunga: invece di concentrarci solo sulla parola chiave, dobbiamo considerare l’intento, la pertinenza e il contesto. Dobbiamo quindi capire come rispondere al meglio alle domande poste dal nostro pubblico e progettare contenuti utili, lavorando sull’intero percorso dell’utente piuttosto che solo sulle singole parole chiave.

  • Restare informati

In alcuni casi, i motori di ricerca offrono un avviso anticipato su un imminente aggiornamento dell’algoritmo: questo ci dà il tempo di familiarizzare con i nuovi fattori e di adattarci di conseguenza. Inoltre, anche la nostra pagina riporta tutti i più rilevanti Google Update!

  • Mantenere la calma e analizzare i rendimenti

Quando i motori di ricerca modificano i loro algoritmi ci sono momenti di caos per noi marketer, anche se tutto ciò che possiamo fare è implementare miglioramenti rilevanti e seguire le linee guida più recenti. Se utilizziamo Google Analytics, prendere nota di quando è avvenuto un aggiornamento dell’algoritmo può aiutarci a spiegare eventuali risultati fuori dall’ordinario, ad esempio, così come il monitoraggio di SEOZoom ci aiuta a capire se ci sono fluttuazioni improvvise nel ranking.

  • Reagire con attenzione

Se un recente aggiornamento dell’algoritmo ha danneggiato il nostro posizionamento, è importante non farsi prendere dal panico. Lanciarsi in una corsa folle per adattare le strategie e apportare modifiche rapide con l’obiettivo di frenare l’emorragia nelle classifiche potrebbe addirittura danneggiare ulteriormente la visibilità organica, e i migliori risultati arriveranno dal prendersi il tempo necessario per studiare gli obiettivi del nuovo aggiornamento e verificare in che modo il nostro sito Web non soddisfa questi requisiti. Molto probabilmente, bastano alcuni semplici accorgimenti per rimettersi in gioco, anche se i tempi della ripresa possono essere più lunghi.

L’algoritmo di Google non è una formula

Possiamo approfondire ulteriormente il tema sfruttando il lavoro di Dave Davies su Search Engine Journal, che prova a spiegare in modo semplice e accessibile che cos’è l’algoritmo di Google.

Partendo dalla definizione di Wikipedia, un algoritmo “è un procedimento o programma che risolve una classe di problemi attraverso un numero finito di istruzioni elementari, chiare e non ambigue”, ma c’è anche un significato più generale, ovvero “un processo o un insieme di regole da seguire nei calcoli o in altre operazioni di risoluzione dei problemi, soprattutto da un computer”. In entrambi i casi, conta capire un punto fondamentale: un algoritmo non è una formula singola.

Per questo, Davies utilizza l’esempio di un menu: da buon canadese, ci dice l’esperto, ama mangiare il classico “Roast Beef with gravy” accompagnato da altri ingredienti, per la cui preparazione servono:

  • Arrosto di manzo
  • Rafano
  • Yorkshire pudding
  • Fagioli verdi
  • Purè di patate
  • Gravy (salsa composta dal fondo di cottura della carne).

L’arrosto di manzo deve essere stagionato e cucinato perfettamente, spiega Davies, che poi aggiunge altri dettagli: “il condimento abbinato l’arrosto sarebbe un esempio di una formula – quanto di ogni cosa è necessario per produrre un prodotto; una seconda formula utilizzata sarebbe la quantità di tempo e la temperatura a cui l’arrosto deve essere cotto, dato il suo peso, e la stessa operazione si ripete per ogni elemento nell’elenco”.

Quindi, “a un livello molto semplice avremmo 12 formule (6 ingredienti x 2 – uno per le misurazioni e l’altro per il tempo di cottura e la durata in base al volume), che creano un algoritmo con l’obiettivo di creare uno dei pasti preferiti di Dave”, a cui aggiungere “un’altra formula, per considerare la quantità di cibi diversi che vorrei sul mio piatto”, scrive.

E questo senza nemmeno includere “le varie formule e algoritmi necessari per produrre gli ingredienti stessi, come allevare una mucca o coltivare patate”.

Ma questo è solo l’algoritmo su misura delle preferenze di Davies: “Dobbiamo considerare che ogni persona è diversa e vorrà quantità diverse di ciascun ingrediente e potrebbe desiderare condimenti diversi”. Si può quindi personalizzare quell’algoritmo per dare a ognuno il risultato ideale, aggiungendo una formula per ogni persona.

Tanti algoritmi, un solo algoritmo

Questa lunga parentesi sembra averci portato lontano dal tema del nostro articolo, ma in realtà un algoritmo e un tavolo da pranzo hanno molte cose in comune, e per dimostrarlo Davies elenca alcune delle caratteristiche principali di un sito Web (limitandosi a 6 per un confronto diretto):

  • URL
  • Contenuti
  • Collegamenti interni
  • Link esterni
  • Immagini
  • Velocità.

Come già visto con l’algoritmo per la cena, “ognuna di queste aree è ulteriormente suddivisibile utilizzando diverse formule e, di fatto, diversi sotto-algoritmi”. E quindi, il primo passo per capire come funziona il sistema è considerare la presenza non di un solo algoritmo, ma di più algoritmi.

È però importante tenere presente che, pur essendoci “molti algoritmi e innumerevoli formule in gioco, c’è ancora un solo algoritmo”: il suo compito è determinare come questi altri sono ponderati per produrre i risultati finali che vediamo sulla SERP, ci spiega l’esperto.

Secondo Davies, “è perfettamente legittimo riconoscere che al vertice esiste un tipo di algoritmo – l’unico algoritmo per dominarli tutti, per così dire (citando Il Signore degli Anelli) – ma senza dimenticare che ci sono innumerevoli altri algoritmi”, che generalmente sono quelli “a cui pensiamo quando stiamo valutando come incidono sui risultati di ricerca”.

L’algoritmo di Google è una ricetta perfetta

Tornando all’analogia, ci sono una moltitudine di caratteristiche diverse di un sito Web che vengono valutate, “proprio come abbiamo un certo numero di elementi alimentari che ci ritroviamo nel nostro piatto”.

Per produrre il risultato desiderato, “dobbiamo avere un gran numero di formule e sotto-algoritmi per creare ogni elemento sul piatto e l’algoritmo master per determinare la quantità e il posizionamento di ciascun elemento”.

Allo stesso modo, quando usiamo l’espressione algoritmo di Google ci riferiamo in realtà a “una massiccia raccolta di algoritmi e formule, ciascuno impostato per svolgere una funzione specifica e raccolto insieme da un algoritmo-capo o, oserei dire, algoritmo core per posizionare i risultati”.

Gli esempi di algoritmi

Nell’articolo si ricordano poi alcuni tipi di algoritmo di Google per esemplificare il discorso:

  • Algoritmi come Panda, che aiutano Google a giudicare, filtrare, penalizzare e premiare i contenuti in base a caratteristiche specifiche (e lo stesso Panda probabilmente includeva al suo interno una miriade di altri algoritmi).
  • L’algoritmo Penguin per giudicare i link e identificare lo spam. Tale algoritmo richiede certamente dati da altri algoritmi preesistenti che sono responsabili della valutazione dei collegamenti e probabilmente di alcuni nuovi algoritmi incaricati di comprendere le caratteristiche comuni del link spam, in modo che il più grande algoritmo Penguin possa fare il suo lavoro.
  • Algoritmi specifici di un’attività/task.
  • Algoritmi organizzativi.
  • Algoritmi responsabili della raccolta di tutti i dati e del loro inserimento in un contesto che produca il risultato desiderato, una SERP che gli utenti troveranno utile.

Il ruolo delle entità per gli algoritmi

In questo contesto, un elemento che sta ricevendo sempre più attenzioni è l’analisi delle entità, che sappiamo essere “cose o concetti singolari, unici, ben definiti e distinguibili”.

Tornando all’analogia della cena, Davies ci mostra quali sono le entità interessate: lui stesso, ogni membro della sua famiglia e anche il suo nucleo familiare (un’entità a sé stante), e poi ancora l’arrosto e ogni ingrediente di cui è composto sono altre entità singole, e così pure lo Yorkshire pudding e la farina che serve per farlo.

Google vede il mondo come una raccolta di entità, e questo è stato un passo decisivo nel processo di miglioramento degli algoritmi di ricerca.

Proseguendo il suo ragionamento, Davies spiega che al suo tavolo da pranzo ci sono “quattro entità individuali che avrebbero lo stato di stanno mangiando e una serie di entità che invece sono mangiate: classificarci tutti in questo modo ha molti vantaggi per Google rispetto alla semplice valutazione delle nostre attività come una serie di parole”. A ogni entità che mangia possono essere assegnate le entità che ha nel suo piatto (roast beef, rafano, fagiolini, purè di patate, budino dello Yorkshire e così via).

Google utilizza questo stesso tipo di classificazione per giudicare un sito Web. Ogni pagina web è un’entità, esattamente come ogni persona seduta al tavolo da pranzo.

L’entità globale che li rappresenta tutti (chiamata “Davies”) sarebbe “cena roast beef”, ma ogni singola entità che rappresenta un individuo o una pagina è diversa. In questo modo, Google può facilmente classificare e giudicare l’interconnessione dei siti Web e del mondo in generale.

Il lavoro degli algoritmi con le entità

Fondamentalmente, i motori di ricerca non hanno il compito di giudicare un solo sito Web, ma devono classificarli tutti. Non si concentrano quindi solo sulla entità Davies vista come cena roast beef, ma anche sull’entità dei vicini Robinson che riguarda lo stir fry. Ora, se un’entità esterna nota come Moocher vuole sapere dove mangiare, le opzioni possono essere classificate dai Moocher in base alle loro preferenze o query.

Tutto ciò è importante per comprendere gli algoritmi di ricerca e il funzionamento delle entità: anziché limitarsi a vedere cosa tratta un sito web nel suo complesso, Google capisce “che il mio arrosto di manzo e la salsa di manzo sono correlati e, di fatto, provengono dalla stessa entità principale”.

E questo è decisivo anche per capire cosa serve per rankare, come spiega ancora l’articolo. Se Google capisce che una pagina web riguarda il roast beef, mentre un’altra pagina che “si collega ad essa riguarda il beef dip (tipico panino canadese prodotto con gli avanzi del roast beef)”, è assolutamente importante che “Google sappia che roast beef e beef dip sono ricavati dalla stessa entità principale”.

Le applicazioni per determinare la rilevanza delle pagine

In questo modo, gli algoritmi “possono assegnare rilevanza a questo link in base alla connessione di queste entità”.

Prima che l’idea delle entità entrasse nella Ricerca, i motori potevano assegnare la pertinenza e la rilevanza solo in base a parametri come word density, word proximity e altri elementi facilmente interpretabili e manipolabili.

Le entità sono molto più difficili da manipolare: “o una pagina riguarda un’entità, o non è attinente”.

Attraverso il crawling del Web e la mappatura dei modi comuni in cui le entità si relazionano, i motori di ricerca possono prevedere quali relazioni debbano avere il maggior peso.

Capire le basi del funzionamento

In definitiva, è importante capire come funzionano gli algoritmi per aggiungere contesto a ciò che stiamo sperimentando o leggendo.

Quando Google annuncia un aggiornamento dell’algoritmo (come nel caso del Google Page Experience), ciò che viene aggiornato è probabilmente un piccolo pezzo di un puzzle molto grande; invece, i broad core update sono modifiche significative e di ampia portata al motore di base di Google, una sorta di tagliando periodico per garantire sempre l’efficacia dei risultati.

Entrare in quest’ottica può aiutare a interpretare “quali aspetti di un sito o del mondo vengono adattati in un aggiornamento e in che modo tale adeguamento si adatta al grande obiettivo del motore”.

In questo senso, è cruciale capire quanto contano le entità negli algoritmi di ricerca oggi: hanno una rilevanza enorme, destinata a crescere, e si basano a loro volta su algoritmi che le identificano e riconoscono le relazioni tra loro.

Per nominare un paio di vantaggi, “conoscere questo meccanismo ci è utile non solo per capire quale contenuto è prezioso (ovvero, quello che si avvicina maggiormente alle entità di cui stiamo scrivendo), ma anche per sapere quali link saranno probabilmente giudicati in maniera più favorevole e pesante”.

Tutto si basa sul search intent

Gli algoritmi di ricerca funzionano “come una vasta raccolta di altri algoritmi e formule, ciascuno con i propri scopi e compiti, per produrre risultati di cui un utente sarà soddisfatto”, scrive Davies nelle battute finali.

Questo vastissimo sistema include algoritmi progettati specificamente per comprendere le entità e il modo in cui le entità si relazionano tra loro, al fine di fornire rilevanza e contesto agli altri algoritmi.

Inoltre, secondo l’esperto, “esistono algoritmi per monitorare solo questo aspetto dei risultati e apportare modifiche laddove si ritiene che le pagine di classificazione non soddisfino il search intent in base alle modalità di interazione degli utenti stessi”, ovvero che analizzano il search behavoiur, come dicevamo parlando della search journey.

Perché, come ricordano spesso anche le voci pubbliche di Mountain View, il compito di Google è fornire risposte precise agli utenti.

Iscriviti alla newsletter

Prova SEOZoom

7 giorni di Prova Gratuita

Inizia ad aumentare il tuo traffico con SEOZoom!
TOP