Anche quest’anno Google ha inaugurato l’anno ad alte marce: certo, non c’è stato il core update come nel 2020, ma a gennaio 2021 il lavoro sul motore di ricerca e sull’ecosistema che sta intorno a Search non si è fermato, e tante sono le novità annunciate nelle ultime settimane dalla compagnia americana. Come ormai da tradizione, è John Mueller con il suo Google Search News a ricapitolare ciò che di importante è avvenuto lo scorso mese, con un video in cui parla di interventi su crawling, indicizzazione, link building e tanto altro ancora.

Google Search News, le ultime novità di gennaio 2021

Dopo la tradizionale introduzione di Mueller – che ricorda che, ormai dallo scorso maggio, sta registrando ancora da casa come conseguenza della pandemia, scherzando con la consueta ironia sulle difficoltà della vita ai giorni nostri – si passa al sommario dell’episodio su gennaio 2021.

Sono tre i topic principali trattati nel video, tutti relativi ad alcuni processi e concetti basilari del sistema della Ricerca, ovvero crawling, indicizzazione e link.

Il sommario dell'episodio di Google Search News gennaio 21

Nuovi strumenti per capire il crawling: il Rapporto Statistiche di scansione

Con l’espressione crawling si fa riferimento all’attività di “scansione di Googlebot sulle pagine web seguendo i link che vede per trovare altre pagine web”; indicizzazione, invece, è “quando i sistemi di Google cercano di elaborare e comprendere il contenuto di quelle pagine”. Entrambi questi processi devono lavorare insieme “e la barriera tra loro a volte può essere un po’ confusa”, dice il Search Advocate di Google.

Anche se è da decenni che Google fa crawling, “siamo sempre impegnati per renderlo più facile, più veloce o meglio comprensibile” per i proprietari dei siti. Va in questa direzione una recente novità, l’introduzione in Search Console di un aggiornato Rapporto Statistiche di scansione (Crawl Stats report), che fornisce informazioni su come Googlebot scansiona il sito.

Il rapporto mostra dati come il numero di richieste per codice di stato e gli scopi della scansione, informazioni a livello di host sull’accessibilità, esempi e altro; alcune di queste informazioni si trovano anche negli access log di un server, ma ottenerli e comprenderli è spesso difficile.

L’intento di Google è invece rendere più facile per i siti di tutte le dimensioni ottenere insights utili sulle abitudini di Googlebot.

Più dati e informazioni sulle scansioni di Googlebot

Insieme a questo strumento, Google ha anche lanciato una nuova guida dedicata alla gestione del crawl budget per i siti web di grandi dimensioni: quando un sito cresce, infatti, la scansione può diventare più difficile e può essere utile avere un riferimento con le best practices consigliate direttamente da Google (che può dare spunti interessanti anche ai siti di dimensione inferiore, ovviamente).

E infine, sempre in tema di crawling, Mueller ricorda che Googlebot ha avviato la scansione con HTTP/2, la versione aggiornata del protocollo utilizzato per accedere alle pagine web che apporta alcuni miglioramenti particolarmente rilevanti per i browser, e quindi scelta da Google per “migliorare il nostro normale crawling”.

Le novità per l’indexing

Passando all’indexing – definito il “processo di comprensione e memorizzazione del contenuto delle pagine web in modo da poterle mostrare nei risultati di ricerca in modo appropriato” – ci sono due notizie che Mueller condivide nel video.

La prima è il reintegro della funzionalità dello strumento Controllo URL in Search Console (dopo una sospensione di alcuni mesi), che rende quindi nuovamente possibile inviare manualmente le singole pagine per richiederne l’indicizzazione nei casi opportuni. In realtà, spiega il Search Advocate, nella maggior parte dei casi “i siti non dovrebbero avere bisogno di usare questi sistemi, perché basta concentrarsi sul fornire una buona linking interna e buoni file sitemap”, condizione sufficiente affinché “i sistemi di Google possano essere in grado di scansionare e indicizzare il contenuto del sito rapidamente e automaticamente”.

L’altra notizia riguarda ancora la Search Console, dove ora è presente un Rapporto sullo stato della copertura dell’Indice aggiornato in modo significativo: ora i proprietari di siti sono agevolati nella comprensione dei problemi che influenzano l’indicizzazione del contenuto del loro sito e, ad esempio, il precedente segnale generico di “anomalia di crawling” è stato sostituito con l’indicazione più specifica del tipo di errore.

Le opportunità con i link

Come ultimo punto citato nel sommario, il Googler parla dei link, che insieme a “un sacco di fattori diversi nella ricerca” servono a Google “per trovare nuove pagine e per capire meglio il loro contesto nel web”: sono quindi una parte integrante del web ed è “ragionevole che i siti ci pensino”.

Mueller ricorda che le linee guida di Google menzionano varie “cose da evitare per quanto riguarda i link, come comprarli”, ma anche che sono molte le domande che arrivano dalla community su “cosa possono fare i siti per attirare i link”.

Il Search Advocate cita esplicitamente un “affascinante articolo di Gisele Navarro sulle migliori campagne di link building del 2020” e, pur non potendo “fare un endorsement a nessuna azienda particolare che ha lavorato su queste campagne, ho pensato che fossero ottimi esempi di ciò che i siti possono fare” e quindi degli spunti per “pensare ad alcune cose creative che potrebbe essere possibile fare nella nicchia del tuo sito”.

Ad ogni modo, il consiglio di base ufficiale è inevitabilmente quello di creare contenuti fantastici: un lavoro che non è sempre facile, ma che “può aiutarti a raggiungere un pubblico più vasto e, chissà, magari ottenere un link o due”.

Dati strutturati, il testing tool non scompare

In coda, Mueller presenta un’ultima notizia relativa ai dati strutturati e, nel dettaglio, allo Structured Data Testing tool che, come già accennato nel corso di Google Search News di luglio 2020, Google ha deciso di deprecare in favore dello sviluppo del più moderno e specifico Rich Results test.

La novità è che il vecchio strumento non scompare del tutto, perché “troverà una nuova casa nella comunità di schema.org”.

Inoltre, sempre in tema dati strutturati, vale la pena ricordare che da ieri, 31 gennaio 2021, Google non supporta più il markup data-vocabulary.org per generare rich results: l’annuncio di questa scelta è arrivato lo scorso anno e, inizialmente, prevedeva l’addio da aprile 2020, ma la compagnia ha preferito lasciare più tempo ai webmaster a causa della pandemia.

Questa decisione non impedisce ai siti di usare il markup data-vocabulary, che resta attivo e valido a prescindere da Google e può servire ancora per altri scopi, differenti però dai rich results sul motore di ricerca.