Completiamo il nostro focus sui parametri URL: dopo aver visto cosa sono le query string e quali rischi comporta una gestione non efficace sui siti, è il momento di scoprire invece quali sono le best pratices per non avere problemi. Ci sono sei strade per cercare di migliorare i parametri URL e renderli più SEO friendly, continuando così a sfruttare i vantaggi di filtri e stringhe senza intoppi per usabilità, crawl budget e ottimizzazione SEO.

Eliminare i parametri URL non necessari

Limitare i parametri URL non necessari: il percorso più semplice è individuare come e perché vengono generati i parametri e capire quali sono quelli che offrono un valore a utenti e sito e quali, invece, si rivelano inutili se non dannosi per la SEO.

Possiamo quindi eliminare le query string non necessarie (filtri usati raramente dagli utenti, parametri che non svolgono funzioni utili, tracciamento che può essere reso in modo più agevole dai cookies), evitare che si realizzino valori vuoti, fare attenzione a non applicare più parametri con stesso nome e valore differente, curare l’ordinamento di questi elementi.

Usare il rel canonical per dare gerarchia alle pagine

Sull’uso del rel canonical ci siamo già soffermati, e quindi possiamo aggiungere solo che questo intervento ha dei vantaggi (come la semplicità di implementazione, la garanzia elevata di evitare problemi di duplicazione dei contenuti e la possibilità di consolidare i segnali di ranking sull’URL preferito), ma anche degli aspetti negativi. Anche con il canonical, infatti, si può sprecare crawl budget sulle pagine dei parametri, e a volte Google potrebbe non usare l’indicazione (ne parlavamo qualche tempo fa); inoltre, non è applicabile a tutti i tipi di parametri.

Impostare direttive Noindex nei Meta Robots

Il terzo tipo di intervento riguarda i meta robots e la possibilità di bloccare l’indicizzazione della ricerca con un tag “noindex”, che come sappiamo è il metodo consigliato da Google per questo obiettivo, che ha ufficialmente pensionato il noindex nel file robots.txt!).

Possiamo così impostare una direttiva noindex per ogni pagina basata su parametri che non aggiunga valore SEO, evitando quindi che possa essere inserita nell’indice del motore di ricerca; inoltre, c’è anche la probabilità che gli URL con un tag “noindex” siano sottoposti a scansione meno frequentemente e, nel lungo periodo, Google potrebbe decidere in autonomia di mettere in nofollow i link della pagina.

Il vantaggio di questa soluzione sta nella sua semplicità e nella sua efficacia nel prevenire la duplicazione dei contenuti; inoltre, è applicabile a tutti i tipi di parametri URL che vogliamo escludere dall’Indice e consente anche di rimuovere le pagine già indicizzate da Google. Allo stesso tempo, però, la direttiva Noindex nei Meta Robots è vista dal motore di ricerca come un forte hint, ma non un obbligo e non evita che Googlebot e gli altri crawler scansionino le pagine, assicurando solo che lo facciano meno frequentemente; ovviamente, poi, non si consolidano i segnali di ranking forniti dal sito.

Utilizzare il Disallow nel file Robots.txt

Un’altra strada possibile è quella di utilizzare la direttiva Disallow nel file robots.txt, che rappresenta il primo elemento che i search engine cercano sul sito prima della scansione: trovando questa specifica, si tengono alla larga dalle pagine. In questo modo è possibile bloccare l’accesso dei crawler a qualsiasi pagina con parametro URL oppure specificare singolarmente le query string che non vogliamo far indicizzare.

Anche in questo caso parliamo di una implementazione tecnica semplice, dagli effetti positivi immediati e adatta a ogni tipo di paramentro: con il disallow si genera una gestione più efficiente del crawl budget e si evitano contenuti duplicati. I punti a sfavore sono invece l’impossibilità di consolidare segnali per il posizionamento e, soprattutto, di rimuovere gli URL esistenti dall’Indice.

Avvalersi dello strumento Parametri URL in Google Search Console

All’interno degli strumenti per webmaster di Google c’è una funzione che consente di gestire questi elementi: si chiama semplicemente “strumento Parametri URL” ed è dedicata ai siti che usano “parametri URL per varianti di pagina non significative (ad esempio color=red e color=green) oppure parametri che consentono di mostrare fondamentalmente gli stessi contenuti ma con URL diversi (ad esempio, example.com/shirts?style=polo,long-sleeve e example.com/shirts?style=polo&style=long-sleeve)”, come si legge nella guida per evitare “una scansione inefficiente del sito”.

È importante approfondire come usare al meglio questo tool, perché è la stessa pagina scritta dal team di Google a mettere in evidenza un messaggio di allarme: un utilizzo errato potrebbe generare danni al sito e al suo posizionamento nella Ricerca Google, perché il motore di ricerca “potrebbe ignorare pagine importanti del tuo sito senza avvisarti o segnalare le pagine ignorate. Se sembra un po’ drastico è perché molte persone usano lo strumento in modo errato o senza averne un’effettiva necessità. Se hai dubbi in merito all’uso corretto dello strumento, sarebbe meglio non usarlo“.

A cosa serve lo strumento Parametri Url di Google

Il tool impedisce a Google di eseguire la scansione degli URL che contengono parametri specifici oppure parametri con valori specifici e, come negli altri casi, serve a evitare che il crawler possa eseguire la scansione di pagine duplicate. I suoi effetti sono molto diretti: il “comportamento dei parametri si applica all’intera proprietà” e non è “possibile limitare il comportamento di scansione di un determinato parametro a un URL o a una parte specifici del tuo sito”.

Quando usare il tool della Search Console, i requisiti

Secondo Google, ci sono due situazioni che dovrebbero spingere a usare lo strumento Parametri URL: un sito con oltre mille pagine e (contemporaneamente) un numero elevato nei log di pagine duplicate indicizzate da Googlebot in cui sono diversi soltanto i parametri URL (ad esempio example.com?product=green_dress e example.com?type=dress&color=green).

Come usare lo strumento

La domanda chiave per affrontare questo aspetto è “come influisce il parametro sul contenuto della pagina?”, da cui dipende il miglior modo per gestire le impostazioni e ottimizzare quindi il rendimento delle pagine lato SEO.

Come impostazione predefinita per i parametri già noti esiste la possibilità di lasciar decidere a Googlebot la modalità di gestione dei parametri: il crawler analizza il sito e determina quale sia il modo migliore e più efficace. Per chi invece vuole avere il controllo delle operazioni, è possibile decidere di non bloccare mai gli URL con uno specifico parametro, di sottoporre a scansione solo URL con valori determinati, di bloccare la scansione per specifici parametri.

In linea generale, tra i pro di questo strumento possiamo segnalare di sicuro la sua usabilità, che non toglie alcun tempo agli sviluppatori (e, affidando i compiti a Googlebot, neppure a chi gestisce il sito); inoltre, è adatto a ogni tipo di parametro URL, può prevenire la duplicazione dei contenuti e consente un uso più efficiente del budget di scansione. C’è anche qualche contro, tuttavia: innanzitutto, come altri interventi non consolida i segnali per il posizionamento e non è una direttiva obbligatoria, ma soprattutto funziona solo per Googlebot e quindi non comunica gli stessi messaggi agli altri crawler dei motori di ricerca alternativi, come Bing.

Scegliere solo URL statici

L’ultima soluzione è molto drastica e richiede tempo: si tratta di convertire tutti i parametri URL in URL statici riscrivendo gli indirizzi server-side e utilizzando i redirect 301. D’altra parte, secondo molti il modo migliore di gestire le query string è evitarle del tutto, anche perché i subfolder aiutano Google a comprendere la struttura del sito e gli URL statici basati su keyword sono stati una pietra miliare della SEO on page.

Un approccio con vantaggi e limiti

Questo approccio funziona bene con parametri descrittivi basati su parole chiave, come quelli che identificano categorie, prodotti o filtri per gli attributi rilevanti per i motori di ricerca, ed è efficace anche per i contenuti tradotti. Tuttavia, diventa problematico per gli elementi in cui la parole chiave non è rilevante, come il prezzo, dove avere un filtro come un URL statico e indicizzabile non offre alcun valore SEO. Inoltre, è ostico anche per i parametri di ricerca, poiché ogni query generata dall’utente creerebbe una pagina statica che può degenerare in cannibalizzazione rispetto alla canonica, o ancora presentare ai crawler pagine di contenuto di bassa qualità ogni volta che un utente cerca un articolo non presente.

Questa strada non funziona molto neppure con il tracking (Google Analytics non riconoscerà una versione statica del parametro UTM), e soprattutto sostituire i parametri dinamici con URL statici per cose come l’impaginazione, i risultati della casella di ricerca onsite o l’ordinamento non risolvono il contenuto duplicato, il crawl budget o la diluizione della link juice.

Arrivando al punto, per molti siti Web non è possibile né consigliabile eliminare del tutto i parametri se l’obiettivo è fornire una user experience ottimale, né sarebbe la migliore pratica SEO. Quindi, un compromesso potrebbe essere implementare query string per i parametri che non devono essere indicizzati nella Ricerca di Google, e usare invece URL statici per i parametri più rilevanti.

Specchietto con vantaggi e svantaggi delle soluzioni SEO per i parametri URL

Non c’è una sola soluzione perfetta per gestire i parametri URL

Già da quanto scritto dovrebbe esser chiaro che non esiste una soluzione perfetta per gestire i parametri URL in modo efficace per la user experience e per la SEO, perché tutto dipende dalle valutazioni legate al sito: in certi casi potrebbe essere più importante ottimizzare il crawl budget rispetto al consolidamento dei segnali di ranking, mentre in altri le priorità sono opposte.

Ottimizzazione SEO delle query string, il percorso

In linea di massima, un percorso standard di ottimizzazione SEO friendly delle query string potrebbe essere il seguente, proposto da Jes Scholz su Search Engine Journal (da cui abbiamo attinto anche l’immagine consuntiva su pro e contro di tutte le soluzioni descritte):

  1. Lanciare una keyword research per capire quali parametri dovrebbero essere URL statici e potenzialmente posizionabili sui motori di ricerca.
  2. Implementare la corretta gestione della paginazione con Rel=prev/next.
  3. Per tutti gli altri Url con parametri, implementare regole di ordinamento coerenti, che utilizzano le chiavi una sola volta e impediscono valori vuoti per limitare il numero di URL.
  4. Aggiungere un canonical alle pagine dei parametri che possono avere possibilità di classificazione.
  5. Configurare la gestione dei parametri URL sia in Google che in Bing come salvaguardia per aiutare i motori di ricerca a comprendere la funzione di ciascun parametro.
  6. Controllare che non vengano inviati URL basati su parametri nella Sitemap