Search On 22, Google svela il futuro della Ricerca

Provaci
Mettici alla prova
Analizza il tuo sito
Seleziona la lingua del database:

L’obiettivo di Google, sin dalla sua nascita, è quello “organizzare le informazioni a livello mondiale e renderle universalmente accessibili e utili”: con l’evoluzione della tecnologia, questa mission ha assunto a sua volta dei significati ulteriori, e oggi, soprattutto grazie ai progressi nell’apprendimento automatico, fare una ricerca significa molto più che scrivere una query nel box e attendere la comparsa di 10 link. I cambiamenti alle SERP di Google, così evidenti e vari, ci mostrano come Big G si stia “avvicinando alla creazione di esperienze di ricerca che riflettano il modo in cui noi come persone diamo un senso al mondo”, e come la compagnia sia impegnata a “sbloccare modi completamente nuovi per aiutare le persone a raccogliere ed esplorare le informazioni”. Ulteriori esempi di questo lavoro arrivano dal grande evento Google Search On 22, durante il quale Google ha appunto presentato le prossime evoluzioni in arrivo nel sistema di Ricerca, con tante applicazioni utili anche per gli utenti di Maps, News, per lo Shopping eccetera: insomma, ecco tutto ciò che sta cambiando e che anche noi SEO dovremmo sapere, visti gli inevitabili effetti che avranno sugli stessi concetti di ottimizzazione e posizionamento.

Google Search On 22, tutte le novità per la Ricerca (e non solo)

Google Search On è il grande evento autunnale di Google, dedicato in maniera preminente a quello che resta il core business dell’azienda, che continua a essere (ricordiamolo) innanzitutto un motore di ricerca, anzi IL motore di ricerca più usato al mondo. Come nelle due edizioni precedenti, anche quest’anno è soprattutto la tecnologia a dominare la scena e gli annunci, con la presentazione di tante funzionalità e strumenti più recenti che rendono più naturale e intuitivo trovare ciò che stai cercando, grazie ai progressi nell’apprendimento automatico applicati a “nuovi modi per cercare visivamente, esplorare il mondo intorno a te, fare acquisti con sicurezza e fare scelte più sostenibili”, come si legge sulle pagine di The Keyword dedicate al tema.

Il filo comune che lega questi interventi è racchiuso dall’espressione “search outside the box“, che può avere vari livelli di lettura: dal punto di vista più basico, significa letteralmente che l’utente può fare ricerche fuori dal vecchio box, dalla casella di ricerca in cui prima era obbligatorio digitare la query, perché i progressi tecnologici consentono di lanciare le ricerche anche in modi e con strumenti diversi. Ma significa anche aiutare le persone a pensare (e cercare) in modo meno schematico, assecondando quindi le proprie competenze e necessità, perché l’integrazione dei vari strumenti di Intelligenza Artificiale, Machine Learning e le modifiche anche grafiche permetteranno di accedere a informazioni sempre più facili da raggiungere ed estremamente utili, perché calibrate attraverso molti più parametri.

Insomma, contenuti fruibili sempre più prossimi alla vita quotidiana delle persone, come promettono i vertici dei singoli dipartimenti – Rajan Patel per Search, Miriam Daniel per Maps e Matt Madrigal per Shopping – anche se per il momento tali modifiche interessano prioritariamente la popolazione anglofona (ma nell’arco di qualche mese dovrebbero essere estese fino a comprendere almeno cento altre lingue e i corrispettivi cittadini in tutto il mondo).

I 10 principali annunci per la Ricerca Google

La copertura totale delle novità in arrivo per gli utenti Google è disponibile come detto sui canali ufficiali della compagnia, compresi i video su YouTube, ma possiamo comunque provare a sintetizzare quali sono le funzionalità più interessanti che vedremo comparire su Google Search, che potrebbero quindi (ancora una volta!) avere effetto sul posizionamento e sui rendimenti organici dei risultati.

Seguendo il lavoro di Barry Schwartz, abbiamo individuato i 10 annunci più rilevanti di Search On 22, inclusi Multisearch, applicazioni di Lens, completamento automatico, filtri di ricerca e altro ancora – anche se forse nessuno di questi è davvero una novità, quanto piuttosto una ulteriore evoluzione di qualcosa già presentato in passato.

  1. Espansione della multiricerca

Google sta espandendo la multiricerca a 70 nuove lingue nei prossimi mesi. La ricerca multipla di Google è stata annunciata a Google I/O 2022 ed era inizialmente disponibile solo per le query in inglese e negli Stati Uniti: si tratta di una funzione che permette all’utente di utilizzare la fotocamera dello smartphone per eseguire ricerche in base a un’immagine, basata su Google Lens, quindi aggiungere una query di testo aggiuntiva sopra la ricerca di immagini, “in modo simile a come potresti naturalmente indicare qualcosa e porre una domanda al riguardo”. Google utilizzerà quindi sia l’immagine che la query di testo per mostrare i risultati della ricerca visiva.

Multisearch

 

Secondo Cathy Edwards, VP/GM di Search, già oggi “le persone ora usano Lens per rispondere a più di 8 miliardi di domande ogni mese”, cercando “nel mondo intorno con la fotocamera o un’immagine”.

  1. Debutta Multisearch Near to me

Una delle prime applicazioni pratiche della ricerca multipla è pronta all’implementazione nei risultati di ricerca in inglese e negli Stati Uniti (e dovrebbe arrivare entro la fine dell’autunno): si tratta di Multisearch near me, un sistema che consente di scattare una foto o fare uno screenshot di un piatto o di un oggetto, quindi trovarlo immediatamente nelle vicinanze, connettendo l’utente con risultati di ricerca locali e con le attività commerciali della sua zona

  1. Il testo tradotto di Google Lens ora è più chiaro

Tra le varie funzioni di Google Lens c’è anche la possibilità di puntare la fotocamera su di un testo in quasi tutte le impostazioni in modo da poter tradurre quel contenuto: secondo Edwards, ogni mese le persone utilizzano Google per tradurre il testo in immagini oltre 1 miliardo di volte, in più di 100 lingue, e questa capacità di abbattere le barriere linguistiche è “uno degli aspetti più potenti della comprensione visiva”.

Traduzioni con Lens

Entro la fine dell’anno, Google Lens riuscirà a presentare quel testo tradotto in un modo più chiaro con un approccio misto: grazie a importanti progressi nell’apprendimento automatico, ora l’applicazione è in grado di fondere il testo tradotto in immagini complesse, in modo che appaia molto più naturale e più facile da comprendere per gli utenti. Inoltre, dopo un lavoro di ottimizzazione dei modelli di machine learning, questa operazione sarà eseguita in appena 100 millisecondi, in meno di un battito di ciglia. Il sistema utilizza le reti contraddittorie generative, note anche come modelli GAN, per presentare meglio il testo tradotto, una tecnologia simile a quella utilizzata da Google nei dispositivi Pixel per la funzione “Magic Eraser” sulle foto.

  1. Perfezionamenti di ricerca in tempo reale

Google sta implementando nuovi perfezionamenti e ausili per la ricerca quando nel completamento automatico e all’interno dei risultati di ricerca, che funzionano in tempo reale (e arriveranno nei prossimi mesi). In pratica, mentre digitiamo la query, Google presenterà parole toccabili che si aggiungono alla stringa e consentono di estendere e costruire la query al volo. È una forma di generatore di query che funziona semplicemente facendo tap sulle parole, come si vede nella gif che mostra il funzionamento in azione:

Perfezionamenti delle ricerche

Durante la digitazione vedremo anche informazioni più complete iniziare ad apparire nei risultati del completamento automatico, come immagini di anteprima o pannelli informativi.

  1. Informazioni visuali immediate con Drill Down

Google ha aggiunto anche un’ulteriore modalità per perfezionare la query dopo aver eseguito la ricerca, che ci consente di aggiungere o rimuovere argomenti su cui desideriamo allargare o restringere il campo: la possibilità di cliccare su opzioni di parole chiave o argomenti ci aiuta di mettere maggiormente a fuoco la ricerca, adattando la barra di ricerca in alto per navigare in modo più dinamico verso risultati più pertinenti per il nostro interesse. Come spiega Edwards, “stiamo semplificando l’esplorazione di un argomento mettendo in evidenza le informazioni più rilevanti e utili, inclusi i contenuti dei creatori sul Web aperto”.

Questo approccio più visual viene definito Drill Down ed è applicato a risultati di ricerca relativi ad alcune query specifiche e ci consentirà di esplorare maggiori informazioni su argomenti relativi a viaggi, persone, animali, piante e così via. Nello specifico, a seconda della query Google mostrerà storie visive, brevi video, suggerimenti, cose da fare e altro, facendo comparire e risaltare anche visivamente le informazioni più rilevanti in questa funzione.

Per argomenti come le città, ad esempio, potremmo visualizzare storie visive e brevi video di persone che le hanno visitato, suggerimenti su come esplorare la città, cose da fare, come arrivarci e altri aspetti importanti che potrebbero servire al momento di pianificare un viaggio.

Funzione Drill Down

  1. Esplorazione nel corso dello scroll

Grazie a queste funzionalità, vedremo i contenuti più rilevanti, da una varietà di fonti, indipendentemente dal formato in cui arrivano le informazioni, che si tratti di testo, immagini o video; e mentre continuiamo a scrollare i risultati, vedremo un nuovo modo per trarre ispirazione da argomenti correlati alla nostra ricerca.

Scroll to Explore

Il nuovo approccio sembra risolvere uno dei classici problemi delle ricerche: di norma, più scorriamo la Ricerca, meno pertinenti sono i risultati (a livello teorico e ideale, infatti, Google dovrebbe classificare le informazioni più rilevanti in cima). Con questa nuova funzione di esplorazione, come utenti possiamo avere ispirazioni differenti sulla query, anche se non corrisponde esattamente a ciò che abbiamo scritto, così da scoprire argomenti e informazioni correlate che vadano oltre la nostra query originale e a cui non avremmo mai pensato, come nel caso delle spiagge e dei siti storici di Oaxaca, una destinazione forse poco nota ma decisamente accogliente e interessante.

  1. Box per discussioni e forum

Le SERP in inglese americano accoglieranno un ennesimo box, dedicato ai risultati provenienti da “discussions and forums” (discussioni e forum), pensato per aiutare le persone a trovare esperienze personali sull’argomento da persone reali che hanno pubblicato contenuti in varie piattaforme forum di discussione online, incluso Reddit.

Feature per discussioni e forum

  1. Notizie locali e internazionali tradotte

Dovrebbe arrivare invece all’inizio dell’anno nuovo la funzione con cui Google permetterà di trovare notizie tradotte per argomenti e fatti locali e internazionali: grazie alla traduzione automatica, Ricerca Google ci mostrerà i titoli tradotti per i risultati delle notizie di editori in altre lingue oltre a quelli scritti nella lingua preferita, abbattendo le barriere linguistiche nelle notizie, come dicono Lauren Clark e Itamar Snir (Product Manager di Google Search e di Google News, rispettivamente)

Traduzione delle notizie

Questa funzione mette in contatto i lettori che cercano notizie internazionali con notizie locali pertinenti in altre lingue, offrendo loro l’accesso a una copertura più completa sul campo e rendendo disponibili nuove prospettive globali. Come annunciato da Google, la funzione per tradurre i risultati delle notizie sarà inizialmente disponibile in francese, tedesco e spagnolo in inglese su dispositivi mobili e desktop.

  1. Personalizzazione di About This Result

Google sta anche espandendo la funzione About This Result (che a breve dovrebbe arrivare anche in Italia) per fornire la possibilità di personalizzare alcuni aspetti dei risultati di ricerca (opzione che è anche disattivabile o modificabile).

About this result “ti parla già di alcuni dei fattori più importanti che la Ricerca Google utilizza per collegare i risultati alle tue query, per verificare se una pagina web ha parole chiave che corrispondono alla tua ricerca, se contiene termini correlati o se è nella lingua in cui stai cercando”, ricorda Danny Sullivan. Se generalmente le parole nella query “forniscono ai nostri sistemi tutto il contesto di cui hanno bisogno per restituire risultati rilevanti”, ci sono alcune situazioni in cui mostrare le informazioni più rilevanti e utili significa “adattare i risultati ai tuoi gusti o preferenze”, aggiunge il public liaison per Search: in questi casi, i risultati personalizzati possono facilitare la ricerca di contenuti che potrebbero essere utili per l’utente.

Personalizzazione shopping

Tra i casi di applicazione della personalizzazione ci sono situazioni di shopping con Google (che aiutano a visualizzare rapidamente i risultati dei marchi e dei settori che piacciono all’utente) o anche di contenuti video legati al “cosa guardare“, con consigli più specifici e legati ai gusti personali rispetto alle classiche risposte generiche; selezionando i servizi di streaming che utilizziamo, riceveremo quindi consigli personalizzati su ciò che è disponibile e avremo collegamento rapido per guardare i titoli che abbiamo scelto.

Inoltre, evidenzia Sullivan, le informazioni personalizzate non sono applicate a tutti i risultati di Ricerca Google, perché i sistemi di Big G “personalizzano solo quando ciò può fornire informazioni più pertinenti e utili”.

  1. Nuove ispirazioni per la cucina

È invece già attiva la funzione, disponibile in inglese per gli utenti mobile di tutto il mondo, che permette di trovare più ispirazione per i pasti. Se cerchiamo “idee per la cena“, ad esempio, visualizzeremo consigli personalizzati per ricette che potremmo provare, con possibilità di perfezionare la ricerca se abbiamo desideri, necessità specifiche o preferenze dietetiche.

Cosa cucinare

Sempre a tema alimentare, poi, Sophia Lin (GM di Food) ha spiegato che sono in arrivo nuovi aggiornamenti di Ricerca per aiutarci a cercare voci di menu specifiche, a visualizzare menu digitali migliorati (grazie all’uso di tecnologie all’avanguardia per la comprensione delle immagini e del linguaggio, incluso il modello MUM) e persino a scoprire cosa rende speciale un ristorante, con maggiori dettagli sui feedback degli utenti. Oltre a perfezionare la ricerca per piatti specifici (come nell’esempio qui sotto dei dumplings),

Ricerca cibo

le applicazioni di Multisearch consentiranno di identificare un prodotto alimentare attraverso una foto o un screenshot e, a partire dalle prossime settimane, di lanciare una ricerca “vicino a me” per vedere le attività nelle vicinanze dove acquistare quel prodotto.

Multisearch near me col food

Le applicazioni per lo Shopping e in Maps

Google Search On 22 è stata anche l’occasione per presentare altre applicazioni specifiche in arrivo nell’ecosistema Google, e in particolare per Maps e per lo Shopping su Google.

Sul primo fronte, sono stati annunciati quattro nuovi aggiornamenti che “fanno sembrare Maps più simile al mondo reale”, aiutandoci ad esempio a farci un’idea di un quartiere prima di partire, esplorare oltre 250 punti di riferimento in vista aerea, cercare luoghi vicini con Live View e altro ancora. La parola chiave è “immersività“, perché grazie a mappe e proiezioni in 3D l’utente può visualizzare gli spazio della realtà sul proprio dispositivo, ottenendo ad esempio la stessa proiezione visiva di una persona che cammina realmente in quel contento urbano.

Non si tratta solo di mappe di alto dettaglio, ma dell’uso di informazioni e Intelligenza Artificiale che permettono di elaborare dati (spesso forniti direttamente dagli utenti stessi) per offrire un’esperienza completa con suggerimenti di ogni tipo: luoghi di interesse in prossimità, monumenti, storia, traffico, meteo, eventi e manifestazioni in quel periodo.

Come sintetizza Chris Phillips (VP & General Manager, Geo), “Google Maps ha sempre superato i limiti di ciò che una mappa può fare”, e ora l’azienda sta ulteriormente reinventando la piattaforma (che già riceve 50 milioni di aggiornamenti al giorno, sulla base dei continui cambiamenti dell’ambiente che ci circonda) “con una mappa visiva e intuitiva che ti consente di vivere un luogo come se fossi lì, tutto grazie ai più recenti progressi nella visione artificiale e nei modelli predittivi”.

Molto più estese le funzionalità in arrivo per lo Shopping su Google, che configura sempre più il colosso di Mountain View come eCommerce system che coinvolge l’utente in un’esperienza di acquisto legata a doppio filo con il motore di ricerca e i suoi risultati. Le nuove funzioni sfruttano a pieno le ultime tecnologie sviluppate dall’azienda, in particolare il potente modello di AI chiamato Shopping Graph, che attualmente comprende oltre 35 miliardi di articoli (45% in più rispetto ai 24 miliardi dello scorso anno).

In questo modo, gli utenti interessati ai prodotti si troveranno di fronte un’interfaccia Google che consente di visualizzare l’articolo sotto ogni punto di vista (anche in senso dimensionale, con la visualizzazione 3D) e con informazioni dettagliate per scoprire se si adatta alle proprie esigenze e abitudini personali, grazie anche all’impiego di filtri shopping dinamici che si adattano in tempo reale a seconda dei trend di ricerca. Nello specifico, Lilian Rincon (Senior Director of Product, Shopping) ha presentato 9 modi per fare shopping su Google, che promettono di rendere l’esperienza di acquisto su Google molto più semplice, intuitiva e divertente:

  1. Query con la parola “shop”. Introdotta per ora negli USA, questa funzione dà accesso a un feed visivo di prodotti, strumenti di ricerca e disponibilità di inventario nelle vicinanze relativo a quel prodotto.

Query con termine shop

  1. Shop the look. Una funzione che permette di completare l’outfit con il suggerimento di prodotti complementari a quello inizialmente ricercato, sempre all’interno di Google Search, con indicazioni e informazioni per acquistare il tutto restando.

Shop the look

  1. Tendenze in corso. Arriva a breve, sempre negli USA in anteprima, un box che elenca i prodotti di tendenza all’interno di una categoria, per aiutare la persona a scoprire gli articoli più popolari e a semplificare la scoperta di modelli, stili e brand.

Prootti di tendenza

  1. Shop in 3D. Continua l’evoluzione di questa applicazione (secondo le stime, le immagini in 3D attirano le persone quasi il 50% in più di quelle statiche) che, dopo il test per gli articoli per la casa, verrà resa disponibile anche per le scarpe, mostrando modelli 3D grazie agli avanzamenti del machine learning.

Immagini in 3D

  1. Supporto per gli acquisti difficili. Quando la decisione di acquisto è complessa (ad esempio, non conosciamo bene il prodotto, il costo è elevato eccetera), Google ci verrà incontro con una funzione di guida all’acquisto dove troveremo utili informazioni su una categoria da un’ampia gamma di fonti attendibili, il tutto in un unico posto, per aiutarci a scoprire i dettagli essenziali da valutare più attentamente.

Guida all'acquisto

  1. Product insights e About this page. Grazie agli approfondimenti sulla pagina sarà possibile ottenere un contesto utile sulla pagina web su cui ci troviamo o sul prodotto che stiamo cercando; inoltre, possiamo anche attivare il tracciamento del prezzo per ultimare l’acquisto al momento più opportuno.

Più contesto e informazioni su pagina e prodotto

  1. Risultati personalizzati. Come accennato in precedenza, presto i risultati di ricerca saranno ancor più personalizzati in base alle precedenti abitudini di acquisto dell’utente, con possibilità di comunicare direttamente le proprie preferenze per affinarli ulteriormente o di disattivare la funzione.

Risultati personalizzati con About this result

  1. Filtri dinamici. I filtri di ricerca per lo shopping a pagina intera diventano sono dinamici e si adattano ai trend del momento: già attivi in USA, Giappone e India, queste funzioni saranno disponibili presto in altre regioni.

Shopping con filtri dinamici

  1. Shopping su Discover. Google punta su Discover nell’app mobile per lanciare suggerimenti di stile all’utente, basati sulle ricerche precedenti e su ciò che altri utenti hanno cercato: una volta individuato un articolo interessante, basta attivare Lens per scoprire dove acquistarlo.

 

Come evolve la Ricerca Google

“Stiamo andando ben oltre la casella di ricerca per creare esperienze di ricerca che funzionano più come le nostre menti e che sono multidimensionali come lo siamo noi come persone”, ha detto Prabhakar Raghavan, Senior Vice President di Google, introducendo questa edizione di Search On 22.

Tutte le funzioni descritte promettono di semplificare le ricerche delle persone e di migliorare l’accesso alle informazioni, che diventa più diretto grazie al coinvolgimento di nuovi linguaggi e strumenti: ad esempio, possiamo cercare direttamente attraverso una foto o con la voce, ma al tempo stesso anche ottenere una SERP che non è più solo testuale, ma sempre più arricchita da video, immagini e contenuti multimediali che evolvono in contemporanea con i nostri tap, per creare un’esperienza davvero immersiva e completa.

Insomma, Google si sta liberando dei vecchi concetti legati alla semplice casella di ricerca sfruttando i progressi tecnologici per creare una piattaforma che si adatta al singolo utente e lo aiuta a “dare un senso alle informazioni” nei modi che gli sono più naturali, come conclude Raghavan.

 

Immagine in evidenza da Google.

Iscriviti alla newsletter

Prova SEOZoom

7 giorni di Prova Gratuita

Inizia ad aumentare il tuo traffico con SEOZoom!
TOP