Google I/O 23: arriva SGE, nel futuro di Ricerca c’è sempre più AI

Provaci
Mettici alla prova
Analizza il tuo sito
Seleziona la lingua del database:

C’era attesa enorme per la quindicesima edizione di Google I/O, l’evento dedicato espressamente agli sviluppatori in cui, da tradizione, il colosso di Mountain View presenta le anticipazioni e i frutti del lavoro su tutti i prodotti e servizi dell’ecosistema. Quest’anno, l’attenzione era rivolta soprattutto al tema più caldo del momento, ovvero l’Intelligenza Artificiale con le sue applicazioni, e la curiosità sulle mosse di Big G su questo fronte erano notevoli: possiamo dire che le aspettative non sono state deluse, perché effettivamente il tema centrale di Google I/O 2023 è stata la presentazione dei progressi dell’intelligenza artificiale per creare prodotti e funzionalità più utili, a cominciare da un nuovo modello di motore di ricerca, chiamato Search Generative Experience.

Google fa all-in sull’Intelligenza Artificiale nei suoi servizi e prodotti

La nuova linea hardware della gamma Pixel, sfondi personalizzati su Android, strumenti di modifica più potenti in Google Foto, ma soprattutto tanti annunci sulle applicazioni dei più moderni sistemi di Intelligenza Artificiale AI e delle sue varie declinazioni nei vari software di Big G: Google I/O 2023 si può riassumere così, peraltro sulla scia di quanto già presentato con Google I/O 2022 e con le edizioni precedenti.

Come ha rivendicato nel suo intervento di apertura il CEO di Google, Sundar Pichai, infatti, Google ha iniziato già “sette anni fa un viaggio come azienda AI-first“, ma oggi è un punto di svolta entusiasmante e vuole cogliere l’opportunità di “rendere l’IA ancora più utile per le persone, per le aziende, per le comunità, per tutti”, con un approccio applicativo di questa tecnologia che appare (almeno nelle intenzioni e nelle premesse) più responsabile e accorto di quello di alcuni competitor.

Pichai sottolinea come Google oggi disponga di “15 prodotti che servono ciascuno più di mezzo miliardo di persone e aziende, e sei di questi prodotti servono ciascuno oltre 2 miliardi di utenti“, e questo offre “così tante opportunità per portare a termine la nostra missione senza tempo, che sembra più rilevante ogni anno che passa: organizzare le informazioni del mondo e renderle universalmente accessibili e utili”. Oggi, e in chiave futura, rendere l’AI utile per tutti è il modo più profondo per proseguire tale missione, e Google lo sta facendo in quattro modi importanti:

  1. Migliorando la conoscenza e l’apprendimento delle persone e aiutandole ad approfondire la loro comprensione del mondo.
  2. Aumentando la creatività e la produttività, così che ognuno possa esprimersi e portare a termine i propri obiettivi.
  3. Consentendo agli sviluppatori e alle aziende di creare i propri prodotti e servizi trasformativi.
  4. Costruendo e implementando l’IA in modo responsabile, in modo che tutti possano trarne vantaggio allo stesso modo.

I 10 principali annunci di Google I/O 2023

Questo impianto teorico trova profonda applicazione nella pratica, per rendere i prodotti di Google “radicalmente più utili” grazie all’AI generativa che, in pratica, aiuta a reinventare tutti i servizi principali di Google, compresa la Ricerca, nel rispetto di un approccio “audace e responsabile“.

In particolare, questi dieci annunci arrivati dall’evento del 10 maggio 2023 (e citati nelle comunicazioni ufficiali della compagnia come “i più significativi”) ci fanno capire quale sarà l’immediato futuro di Google e di alcuni suoi prodotti chiave:

  1. Novità nei prodotti Pixel: annunciati Fold (il primo telefono pieghevole di Google, capace di trasformarsi in un tablet compatto), Google Pixel 7a (che per la prima volta porta sulla serie A molte delle funzionalità indispensabili dei telefoni premium della compagnia) e il nuovo Tablet.
  2. Novità nell’ecosistema Android supportate da Intelligenza Artificiale, a partire dalla personalizzazione e dall’espressione.
  3. Magic Editor in Google Foto, funzionalità di modifica AI per reinventare le foto anche senza competenze professionali.
  4. Maps più coinvolgente con AI, in particolare con la visualizzazione immersiva dei percorsi, che mostra ogni segmento di un itinerario prima di partire.
  5. Supporto alla scrittura in Gmail, con un modello generativo molto più potente che permette di scrivere una risposta automatizzata alle e-mail.
  6. Estensione di Bard, l’AI conversazionale di Google, che diventa più globale, più visivo, più integrato.
  7. Presentazione di PaLM 2, modello linguistico di nuova generazione che ha migliorato le capacità multilingue, di ragionamento e di codifica.
  8. Fortificazione dell’uso di Lens per le ricerche visive. I progressi nella visione artificiale hanno introdotto nuovi modi per effettuare ricerche visive: ora, anche se non abbiamo le parole per descrivere ciò che stiamo cercando, possiamo cercare tutto ciò che vedi con Google Lens (già utilizzato per oltre 12 miliardi di ricerche visive ogni mese, con un aumento di 4 volte in soli due anni, dice Pichai), grazie all’obiettivo combinato con la multimodalità che ha portato al multisearch, che consente di cercare utilizzando sia un’immagine che un testo.
  9. Strumenti per identificare i contenuti generati, attraverso watermarking and metadata: la filigrana “incorpora le informazioni direttamente nel contenuto in modi che vengono mantenuti anche attraverso un modesto editing delle immagini”, e il modello di Google è addestrato per includere watermark e altre tecniche fin dall’inizio, così da limitare i rischi di prendere per vera un’immagine sintetica. I metadati consentono ai creatori di contenuti di associare un contesto aggiuntivo ai file originali, fornendo maggiori informazioni sull’immagine, e anche le immagini di Google generate dall’intelligenza artificiale conterranno questi metadati.
  10. AI generativa per potenziare la Ricerca e reinventare ciò che può fare un motore di ricerca.

Le potenzialità del nuovo modello AI PaLM 2

Ovviamente concentriamo l’attenzione soprattutto sull’ultimo punto, e quindi sulle applicazioni che promettono di trasformare l’esperienza di ricerca su Google, e che quindi possono impattare sulla visibilità dei nostri siti sul motore stesso.

La mossa di Google era inevitabile, visto che tutti gli altri big si erano già attrezzati per intercettare le ultime frontiere dell’Artificial Intelligence, a cominciare da Microsoft che ha potenziato il suo motore di ricerca Bing con ChatGPT, ma forse non ci si aspettava una vera e propria “rivoluzione” (almeno a parole) di Search.

Ma andiamo in ordine: la chiave di questo processo è il nuovo modello di linguaggio PaLM 2 (Pathways Language Model), che è il fulcro che alimenta i vari servizi dell’ecosistema di Google. Tra le sue principali caratteristiche che ne dimostrano la consistenza e la portata citiamo l’estensione (supporta oltre 100 lingue), l’abilità di eseguire operazioni matematiche e ragionamenti complessi (grazie a un ampio addestramento su argomenti scientifici e matematici) e la possibilità di utilizzarlo per generare codice in diversi linguaggi di programmazione come Python e JavaScript, ma anche Prolog, Fortran e Verilog.

Nell’evento sono state presentate anche due applicazioni subordinate di questo modello, ovvero Med-PaLM 2 e Sec-PaLM, frutto dell’addestramento specifico in due ambiti piuttosto sensibili: il primo fa riferimento alla salute, grazie a un dataset appositamente studiato, e sarà di supporto agli addetti ai lavori del settore medico, mentre il secondo è specializzato nei casi d’uso inerenti alla cybersecurity (ad esempio, rileva meglio gli script dannosi e può aiutare gli esperti di sicurezza a comprendere e risolvere le minacce). Inoltre, Pichai ha confermato i progressi su Gemini, il modello di prossima generazione che attualmente è in fase di sviluppo e che è stato creato da zero per essere multimodale, altamente efficiente nelle integrazioni di strumenti e API e “costruito per consentire innovazioni future, come la memoria e la pianificazione”.

Come cambia la Ricerca con l’AI

Ed ecco il piatto forte di Google I/O 2023, la presentazione ufficiale del nuovo motore di ricerca, o per meglio dire della versione potenziata con l’AI di Google Search, che al momento viene chiamata SGE o Search Generative Experience, al centro di vari interventi dell’evento – oltre a Pichai, ne ha parlato a lungo Elizabeth Reid, Vice President & GM di Search – e anche di un documento specifico condiviso dalla compagnia.

Per decenni, l’intelligenza artificiale ha aiutato Google Search, consentendo di reimmaginare il modo in cui le persone interagiscono con le informazioni e le scoprono, di migliorare la qualità e la pertinenza dei risultati e di sostenere un web sano e aperto. In effetti, ricordano (e rivendicano) da Mountain View, una delle prime applicazioni di apprendimento automatico in un prodotto Google “è stato il nostro primo sistema di correzione ortografica nel 2001, oltre due decenni fa”, che aiutava le persone a ottenere risultati pertinenti più velocemente, indipendentemente dagli errori di ortografia, dai misspelling o dai refusi.

Negli ultimi anni, i progressi dell’intelligenza artificiale hanno migliorato notevolmente la Ricerca: nel 2019 Google ha introdotto il Bidirectional Encoder Representations from Transformers (BERT) nel ranking della ricerca, ottenendo un enorme cambiamento nella qualità della ricerca. Anziché puntare a comprendere le parole singolarmente, BERT supporta Search a capire le parole nel contesto in cui sono state usate, consentendo alle persone di fare interrogazioni più lunghe e più conversazionali, entrando in connessione con risultati più pertinenti e utili.

Da quel momento, Google ha applicato a Search modelli linguistici di grandi dimensioni (large language models o LLM) ancora più potenti, come il Multitask Unified Model (MUM) – un modello multimodale 1.000 volte più potente di BERT, addestrato su 75 lingue diverse e per molti compiti diversi; ad esempio, è stato utilizzato in decine di funzioni di ricerca per migliorare la qualità e aiutare (motore e utenti) a capire e organizzare le informazioni in modi nuovi, come trovare argomenti correlati nei video, anche quando tali argomenti non sono esplicitamente menzionati.

Eppure, ciò ha solo scalfito la superficie di ciò che è possibile fare con l’AI generativa, e ora Google sta sperimentando le possibilità attraverso il nostro nuovo programma Search Labs, di cui SGE (Search Generative Experience) è il primo esperimento aperto al test.

Il Google del futuro: arriva SGE, Search Generative Experience

Nella definizione più semplice, SGE è un primo passo verso la trasformazione dell’esperienza di ricerca con l’intelligenza artificiale generativa. Utilizzando SGE, le persone “noteranno la loro pagina dei risultati di ricerca con i risultati web già noti, organizzati in modo nuovo per aiutarli a ottenere di più da una singola ricerca”.

In particolare, con SGE le persone potranno:

  • Porre tipi di domande completamente nuovi, a cui mai avrebbero pensato che la Ricerca potesse rispondere.
  • Ottenere rapidamente informazioni su un argomento, con link a risultati rilevanti da esplorare ulteriormente,
  • Fare domande di approfondimento in modo naturale in una nuova modalità conversazionale.
  • Ottenere più cose facilmente, come generare idee creative e bozze direttamente in Search.

Informazione importante, il documento chiarisce che “SGE è radicata nelle fondamenta della Ricerca, quindi continuerà a connettere le persone alla ricchezza e alla vivacità dei contenuti del web e a cercare di raggiungere i massimi livelli di qualità delle informazioni”.

Come funziona il nuovo Google SGE

Possiamo leggere (e intravedere) altre anticipazioni su questa nuova esperienza di ricerca targata Google.

L'aspetto di SGE, il nuovo Google potenziato da AI

Ad esempio, una delle caratteristiche di SGE sarà la possibilità di fornire snapshot alimentati da AI, utili per aiutare le persone a ottenere rapidamente una visione d’insieme, con fattori da considerare e una sintesi utile di informazioni e approfondimenti rilevanti.

Queste istantanee servono come punto di partenza da cui le persone possono esplorare una vasta gamma di contenuti e prospettive sul web: SGE mostrerà i link alle risorse che corroborano le informazioni contenute nello snapshot, consentendo così alle persone di verificare le informazioni stesse e approfondirle. In questo modo sarà possibile approfondire e scoprire una gamma diversificata di contenuti, provenienti da editori, creatori, rivenditori, aziende e altro ancora, e usare le informazioni trovate per portare avanti le proprie attività.

Un’altra skill rilevante è la modalità conversazionale (che ricorda quella di Bing…): le persone possono fare tap per “chiedere un follow-up” o per proseguire sui passi successivi suggeriti sotto l’istantanea, avviando così la funzionalità che permette di fare in modo naturale domande a Google sull’argomento che stanno esplorando. Oltre alle sintetiche informazioni generate dall’intelligenza artificiale, le persone potranno entrare in maggior profondità attraverso i link a risorse da esplorare.

La modalità conversazionale è particolarmente utile per le domande di approfondimento e per i percorsi informativi più complessi o in evoluzione; utilizza l’intelligenza artificiale per capire quando una persona sta cercando qualcosa di correlato a una domanda precedente e trasferisce il contesto per riformulare la domanda e riflettere meglio l’intento. In questa funzione, le persone vedranno i loro link sotto SGE cambiare durante il nel corso della conversazione, in modo da poter esplorare facilmente i contenuti più rilevanti del web.

Il terzo aspetto segnalato dal documento sono le esperienze verticali, ovvero journey informativi collegati a verticali, come lo shopping o le ricerche locali, che spesso hanno più angolazioni o dimensioni da esplorare. Nello shopping, ad esempio, SGE aiuta a scoprire gli insights in modo che le persone possano prendere decisioni di acquisto ponderate e complesse in modo più semplice e veloce. Nello specifico, per le ricerche di prodotti SGE genera un’istantanea dei fattori degni di nota da considerare e una gamma di opzioni di prodotto, e inoltre presenta descrizioni dei prodotti che includono recensioni pertinenti e aggiornate, valutazioni, prezzi e immagini dei prodotti. Tale funzione è possibile perché SGE si basa sullo Shopping Graph di Google, il database più completo al mondo e in continua evoluzione di prodotti, venditori, marchi, recensioni e inventari – che contiene oltre 35 miliardi di elenchi di prodotti, con più di 1,8 miliardi di inserzioni vengono aggiornate ogni ora, in forte aumento rispetto alla presentazione dello scorso anno.

L'esplorazione di verticali in Search Generative Experience

Allo stesso modo, SGE fornirà un contesto sui luoghi locali, utilizzando suggerimenti basate sull’intelligenza artificiale che facilitano il confronto e l’esplorazione delle opzioni.

Grande attenzione è stata rivolta anche all’aspetto pubblicitario e Google chiarisce (caso mai ce ne fosse bisogno) che “gli annunci di ricerca continueranno a svolgere un ruolo fondamentale”, servendo anche come fonti aggiuntive di informazioni utili, oltre che per aiutare le persone a scoprire milioni di aziende online. Pertanto, anche con SGE gli annunci di ricerca continueranno ad apparire in spazi pubblicitari dedicati all’interno della SERP (con un’etichetta che rende gli annunci distinguibili dai risultati della ricerca organica) e gli inserzionisti continueranno ad avere l’opportunità di raggiungere i potenziali clienti lungo il loro percorso di ricerca.

Queste nuove funzionalità di intelligenza artificiale generativa possono aiutare le persone a proseguire i loro viaggi in modi più creativi, andando oltre la semplice ricerca di informazioni per consentirne invece l’utilizzo pratico. Per Google, ciò significa ad esempio che un semplice journey informativo – come la ricerca di una nuova ebike – può facilmente approdare al supporto alla scrittura del post perfetto sui social in cui la mostriamo, anche se nella fase iniziale questi spunti creativi saranno limitati, perché Google ha intenzionalmente posto un’enfasi maggiore su sicurezza e qualità.

Di fondo, comunque, resta l’impegno a garantire la massima user experience: da molti anni “stiamo evolvendo l’interfaccia utente (UI) di Search per renderla più utile e accessibile“, dicono da Mountain View, e per portare la potenza dell’intelligenza artificiale nella Ricerca in modo user-friendly “abbiamo costruito SGE come un’esperienza integrata, applicando quanto imparato sul comportamento degli utenti”. Gli snapshot alimentati dall’intelligenza artificiale hanno risorse di facile accesso e un’interfaccia utente riconoscibile per i link che consentono di approfondire l’esplorazione sia su desktop che su mobile, per portare la potenza dell’AI generativa direttamente in Google Search. Inoltre, gli utenti possono passare alla modalità conversazionale grazie a richiami e stati evidenziati realizzati con cura, che mostrano come utilizzare questo nuovo paradigma. Anche il colore gioca un ruolo importante nell’aiutare le persone a capire chiaramente che SGE è un nuovo modo di interagire con la ricerca: per esempio, il contenitore di colori degli snapshot cambierà dinamicamente e l’uso del colore si evolverà per riflettere meglio i tipi di viaggio specifici e l’intento della query stessa.

Le informazioni tecniche sull’AI in Google

Al momento, SGE è alimentato da una serie di LLM, tra cui una versione avanzata di MUM e PaLM2, così da ottimizzare e perfezionare ulteriormente i modelli per soddisfare le esigenze specifiche degli utenti e aiutarli nel loro percorso informativo, spiegano da Google.

Sebbene SGE applichi anche LLM, è stato addestrato in modo mirato per svolgere attività specifiche per la ricerca, tra cui l’identificazione di risultati web di alta qualità che corroborino le informazioni presentate nell’output: questi modelli vengono utilizzati in tandem con i sistemi di ranking di base per fornire risultati utili e affidabili. Limitando SGE a questi compiti specifici, tra cui la corroborazione, Google ritiene di essere in grado di attenuare in modo significativo alcune delle limitazioni note dei LLM, come ad esempio l’allucinazione o le imprecisioni, utilizzando per questo obiettivo gli attuali Search quality systems e la capacità di identificare e classificare informazioni affidabili e di alta qualità.

A proposito di controlli, poi, il documento ufficiale specifica che Google ha impostato una serie di criteri e processi per sviluppare questo prodotto in modo responsabile, basandosi anche su input umani e sulla valutazione. Tra i vari parametri analizzati per verificare gli output di SGE ci sono ad esempio attributi quali lunghezza, formato e chiarezza, che si aggiungono a quanto già attualmente utilizzato per garantire la qualità di Search. Ciò significa, in particolare, che i Search Quality Raters sono chiamati a misurare la qualità degli output e dei risultati visualizzati anche in SGE: le loro valutazioni non hanno un impatto diretto sull’output di SGE (così come non influenzano il ranking di Ricerca), ma servono per formare i LLM e migliorare l’esperienza complessiva. Inoltre, seguendo il processo già usato per i lanci significativi in Search, Google analizza i risultati su più serie di query ampie e rappresentative, oltre a condurre studi più mirati per confermare che le risposte soddisfano le soglie di qualità. Ciò vale, in particolare, per le aree tematiche che possono essere più soggette a rischi di qualità noti (problemi di sicurezza o inclusione), o che sono più complesse e sfumate, che richiedono quindi protezioni e risposte più efficaci.

A questo proposito, Google specifica ulteriormente che intende mantenere standard elevati per quanto riguarda le informazioni fornite, che devono essere affidabili, utili e di qualità: perciò, ha costruito un’integrazione personalizzata dell’AI generativa in Search radicata nei sistemi di classificazione e qualità della Ricerca (perfezionati per decenni)e sviluppato un attento e rigoroso processo di valutazione per garantire che ogni aggiornamento mantenga elevata la qualità delle informazioni fornite.

Così come i sistemi di classificazione sono progettati per non scioccare o offendere inaspettatamente le persone con contenuti potenzialmente dannosi, che incitano l’odio o espliciti, SGE è progettato per non mostrare tali contenuti nelle sue risposte. Inoltre, si attiene a standard ancora più elevati quando si tratta di generare risposte su determinate query per le quali la qualità delle informazioni è di fondamentale importanza, ovvero i topic “Your Money or Your Life” (YMYL), come ad esempio finanza, salute o informazioni di carattere civico, aree in cui le persone pretendono un grado di fiducia ancora maggiore nei risultati. Come per la ricerca, anche per gli argomenti YMYL SGE pone ancora più enfasi sulla produzione di risposte informative corroborate da fonti affidabili; inoltre, il modello è stato addestrato per includere le dichiarazioni di non responsabilità nei suoi risultati, laddove appropriato.

Ad esempio, per le domande relative alla salute in cui viene mostrata una risposta, il modello sottolinea che le persone non dovrebbero fare affidamento sulle informazioni come se fossero consigli medici, e che devono rivolgersi a professionisti del settore per un’assistenza personalizzata.

Ci sono poi alcuni argomenti per i quali SGE è stato progettato per non generare una risposta, in particolare quando mancano sul web informazioni di qualità o affidabili al riguardo. Per queste aree – talvolta chiamate “vuoti di dati” o “lacune informative”, in inglese “data voids” or “information gaps” – in cui i sistemi hanno una minore fiducia nelle risposte del motore di ricerca, SGE si propone di non generare un’istantanea, e ciò vale anche per argomenti espliciti o pericolosi e per richieste che indicano una situazione di vulnerabilità, ad esempio per le richieste di autolesionismo, dove emergeranno automaticamente in cima alla ricerca delle risorse affidabili che portano a linee di emergenza apposite.

Per completare le informazioni di tipo tecnico, Google ha condiviso altri due aspetti peculiari di SGE: innanzitutto, ha intenzionalmente addestrato SGE ad astenersi dal riflettere una persona – anche se le LLM hanno la possibilità di generare risposte che sembrano riflettere opinioni o emozioni come se fossero parte di una esperienza umana – e per questo non è progettato per rispondere in prima persona e presenta risposte oggettive e neutre, corroborate dai risultati del web.

Similarmente, un’altra scelta intenzionale riguarda la fluidità delle risposte in SGE, sia nelle istantanee alimentate dall’intelligenza artificiale che nella modalità di conversazione: anche in questo caso, Google ha adottato un approccio “neutrale”, limitando il margine di manovra dato ai modelli per creare risposte fluide e umane, che spesso si traduce in una maggiore probabilità di imprecisioni nell’output. Allo stesso tempo, è stato riscontrato che risposte fluide e di natura colloquiale risultano più “affidabili” per i valutatori umani, che hanno quindi minori probabilità di cogliere gli errori. Pertanto, per assicurare la fiducia che le persone ripongono nella Ricerca, Google ha deciso di limitare la conversazionalità di SGE, che quindi non può essere un “partner di brainstorming creativo e libero”, ma uno strumento “più fattuale, con indicazioni su risorse rilevanti”.

Gli attuali limiti noti di SGE

Nonostante i sistemi di protezione applicati, restano comunque dei “limiti noti” sia alle LLM in generale che a SGE, almeno nella sua forma sperimentale iniziale. Google evidenzia in particolare i cinque principali problemi (loss patterns) emersi durante le valutazioni e l’pprendimento automatico antagonistico, anticipando comunque che gli aggiornamenti del modello e le prossime evoluzioni dovrebbero consentire di fare progressi in merito.

  1. Cattiva interpretazione durante la corroborazione. Sono segnalati casi in cui SGE ha identificato in modo appropriato le informazioni per corroborare la sua istantanea, ma con lievi errori di interpretazione del linguaggio che cambiano il significato dell’output.
  2. Allucinazione. Come tutte le esperienze basate su LLM, SGE può talvolta travisare i fatti o identificare in modo impreciso gli insights.
  3. Bias. Essendo addestrato a corroborare le risposte con risorse di alta qualità – che sono quindi posizionate in alto su Google – SGE può mostrare un’istantanea che riflette una gamma più ristretta di prospettive rispetto a quanto disponibile sul web, riflettendo così i pregiudizi e le distorsioni in quei risultati. Ciò potrebbe dare l’impressione che il modello abbia appreso i bias, ma è più probabile che stia fornendo risultati che riflettono i pregiudizi contenuti all’interno dei primi risultati. In realtà, ciò avviene già negli attuali risultati di ricerca, ammette Google: per esempio, organizzazioni e media autorevoli spesso non aggiungono il qualificatore “maschile” quando scrivono di sport maschili, e le query generiche su quello sport possono quindi essere orientate verso giocatori o squadre maschili, anche se le informazioni su giocatori o squadre femminili sono una risposta ugualmente o forse anche più accurata alla query dell’utente.
  4. Contenuti di opinione che implicano una persona. Anche se, come detto, SGE è stato progettato per riflettere un tono neutro e oggettivo nei suoi risultati generativi, possono verificarsi casi in cui l’output riflette le opinioni che esistono sul web, dando l’impressione che il modello mostri una personalità.
  5. Duplicazione o contraddizione con le funzioni di ricerca esistenti. Essendo integrato in Search insieme ad altri risultati e funzionalità nella pagina dei risultati di ricerca, è possibile che i risultati di sembrino in contraddizione con altre informazioni presenti nei risultati. Ad esempio, si potrebbe vedere un featured snippet che evidenzia la prospettiva di una singola fonte, mentre SGE rappresenta una prospettiva sintetizzata e corroborata in una serie di risultati.

Gli esempi pratici sul funzionamento di SGE

Nel suo intervento, Elizabeth Reid ha mostrato un’applicazione concreta della Search Generative Experience a partire da una query piuttosto complessa, ovvero “cosa è meglio per una famiglia con bambini sotto i 3 anni e un cane, Bryce Canyon o Arches” (nomi di due parchi nazionali statunitensi). Normalmente, dovremmo suddividere questa query in domande più piccole, ordinare le vaste informazioni disponibili e iniziare a mettere insieme le cose da solo: con l’IA generativa, la Ricerca può fare parte di questo lavoro pesante al nostro posto e per nostro conto.

Come si compone l'istantanea di SGE

Noi visualizzeremo direttamente uno snapshot basato sull’intelligenza artificiale delle informazioni chiave da considerare, con collegamenti per scavare più a fondo (come si vede nell’immagine condivisa da Barry Schwartz). Sotto questa istantanea, ci sono una serie di passaggi successivi suggeriti, inclusa la possibilità di porre domande di follow-up, come “Quanto tempo trascorrere al Bryce Canyon con i bambini?”; se toccati, ci portano in una nuova modalità di conversazione, in cui possiamo chiedere a Google di più sull’argomento che stiamo esplorando. Il contesto verrà trasferito da una domanda all’altra, per aiutarci a continuare l’esplorazione in modo più naturale, con presentazione anche di utili punti di partenza per i contenuti web e una serie di prospettive per altri approfondimenti.

Cosa significa SGE per la SEO?

Lanciamo la domanda in modo provocatorio, perché al momento è troppo presto anche solo per ipotizzare i possibili impatti della nuova esperienza di ricerca sulla SEO e sul traffico dei siti – come detto, SGE è disponibile in fase di testing solo negli USA, iscrivendosi al programma Labs di Google – ma in realtà la community internazionale è già in grande fermento.

La prima reazione oscilla tra la curiosità e la preoccupazione: in tanti hanno visto negli snapshot di Search Generative Experience una sorta di evoluzione piuttosto spinta dei featured snippet, con informazioni più lunghe, presentate in tono e modalità conversazionali e con collegamenti a contenuti correlati, anche di tipo transazionale.

E proprio la presenza di link di approfondimento verso altre risorse del Web ha placato gli animi di molti analisti, soprattutto perché i primi test su Bard mostravano una totale assenza di riferimenti e citazioni delle fonti.

Tuttavia, non manca chi prevede l’ennesima morte della SEO e la fine del traffico organico verso i siti, con Google che torna a essere dipinto come un “cannibale” che fagocita tutte le visite e tutto il tempo online degli utenti, offrendo loro un’esperienza completa e chiusa, sintetizzabile nella formula “zero-clic search”, le famigerate ricerche a zero clic di cui Google si renderebbe colpevole.

Di sicuro, Google SGE appare un’esperienza di ricerca diversa da quella che abbiamo finora visto su Google, anche se mantiene alcune caratteristiche basilari di Search ricerca su Google, e possiamo solo aspettare il suo effettivo debutto per capirci qualcosa di più e per scoprire se, come e quanto rivoluzionerà il nostro modo di fare ricerche e, non meno collateralmente, anche la SEO e il nostro lavoro.

Iscriviti alla newsletter

Prova SEOZoom

7 giorni di Prova Gratuita

Inizia ad aumentare il tuo traffico con SEOZoom!
TOP