Contenuti duplicati: guida completa per evitare errori e problemi

Provaci
Mettici alla prova
Analizza il tuo sito
Seleziona la lingua del database:

La qualità dei contenuti è una componente cruciale per il successo di qualsiasi strategia di marketing online, ma non mancano ostacoli insidiosi in questo percorso. Un tema particolarmente spinoso per la SEO è ad esempio quello dei contenuti duplicati: per semplificare, testi che si trovano ripetuti identici o largamente simili in varie pagine web, all’interno dello stesso sito o su siti differenti. Questa pratica può avere un intento ingannevole, ma spesso è frutto di scarsa ottimizzazione o di pigrizia, e può determinare un peggioramento del ranking delle pagine e della reputazione del sito, oltre a una generica difficoltà a posizionare questi contenuti. Ecco tutto ciò che c’è da sapere su cosa sono i contenuti duplicati, come individuarli, come correggere il problema ed evitare la sua ricomparsa.

Cosa sono i contenuti duplicati

Si definiscono contenuti duplicati blocchi di testo identici o molto simili presenti su più URL. Questo fenomeno può verificarsi sia all’interno dello stesso sito web, sia tra siti diversi.

Parliamo insomma di contenuto riproposto come copia identica o molto simile in più posizioni sul Web, all’interno di un singolo sito o su più domini differenti. Inoltre, la guida di Google spiega che l’espressione si riferisce a “blocchi di contenuti importanti all’interno o tra i domini che sono identici o molto simili”, che possono dar vita a quello che abbiamo indicato come un grave e frequente errore SEO.

Tieni il tuo sito sotto controllo
Analizza e monitora le tue pagine: evita contenuti duplicati interni e assicura la salute digitale del tuo progetto
Registrazione

Non sono considerati contenuti duplicati porzioni di testo in lingue differenti, così come non sono identificate come un errore le citazioni (anche di interi paragrafi), soprattutto se usiamo il markup semantico <cite> all’interno del codice.

Questi contenuti possono essere originati da varie cause, tra cui errori tecnici, cattiva gestione dei parametri URL, oppure semplicemente dalla copia non autorizzata di testi da un sito all’altro. Dobbiamo infatti distinguere le diverse forme di contenuti duplicati: i contenuti duplicati interni si verificano quando lo stesso contenuto appare su più pagine all’interno dello stesso sito web, ma ci sono anche i contenuti duplicati esterni – stesso contenuto che appare su più siti web diversi – che spesso possono essere frutto di una copia di contenuti senza autorizzazione, un fenomeno noto come plagio SEO.

Nonostante possano sembrare innocui, i contenuti duplicati possono avere un impatto devastante sul posizionamento organico nei motori di ricerca, influenzando negativamente la visibilità del sito.

Perché i contenuti duplicati sono un problema

Pur non generando tecnicamente una penalizzazione, i contenuti duplicati possono comunque a volte influire negativamente sul posizionamento nei motori di ricerca.

Più specificamente, gli algoritmi di Google, Bing, Yahoo e affini sono progettati per fornire agli utenti risultati pertinenti e unici; pertanto, quando rilevano contenuti uguali o “sensibilmente simili” su più pagine, possono entrare in confusione avere difficoltà a determinare quale versione sia la più rilevante da mostrare nei risultati di ricerca per una determinata query.

Questo processo può causare una riduzione del ranking e della visibilità del sito, perché può portare a una dispersione del valore SEO tra le diverse pagine duplicate, riducendo così l’efficacia complessiva della strategia di ottimizzazione. Nei casi peggiori, Google potrebbe decidere di non indicizzare le pagine duplicate o di ridurre il ranking del sito nel suo complesso, compromettendo così la visibilità del sito nei risultati di ricerca. È ciò che accade anche quando incappiamo nella cannibalizzazione dei contenuti, che presenta appunto ai crawler pagine con contenuti simili o identici che provocano difficoltà nel determinare quale pagina mostrare nei risultati di ricerca.

Al di là di questo aspetto, però, i contenuti duplicati sono un nodo da risolvere perché – sostanzialmente –non offrono valore aggiunto all’esperienza dell’utente sulle pagine del sito, che dovrebbe essere il punto focale di ogni contenuto pubblicato. Ragionando come un utente, visiteremmo regolarmente un sito che presenta degli articoli non originali, o cercheremo di leggere direttamente la fonte originaria di queste informazioni?

Oltre a problemi nella ricerca organica, i contenuti duplicati possono essere anche in violazione delle policy di Google AdSense Publisher, e ciò può impedire l’uso di Google Ads in siti con contenuto di copyright o copiato: ovvero, in pagine che copiano e ripubblicano contenuto da altri senza aggiungere alcuna formulazione originale o valore intrinseco; pagine che copiano contenuto da altri con lievi modifiche (riscrivendolo manualmente, sostituendo alcuni termini con semplici sinonimi, o usando tecniche automatiche) o siti dedicati a inserire contenuti come video, immagini o altri media da altre fonti, sempre senza aggiungere valore sostanziale all’utente.

Utilizzare strumenti di analisi dei contenuti duplicati e software antiplagio può aiutarci a identificare rapidamente eventuali duplicazioni e a prendere le misure necessarie per risolverle. Inoltre, seguire le best practice per la creazione di contenuti unici e di qualità può servire a evitare la duplicazione dei contenuti e a garantire che il nostro sito mantenga una buona salute digitale.

Quali sono i contenuti duplicati: tipologie ed esempi

Come dicevamo, è essenziale comprendere le diverse tipologie di contenuto duplicato che possiamo incontrare, in modo da essere proattivi e pronti ad adottare le giuste strategie di prevenzione e risoluzione.

La principale distinzione riguarda la “posizione” del contenuto problematico, che ci porta a riconoscere le due grandi categorie di contenuti duplicati interni e contenuti duplicati esterni: entrambe le tipologie possono avere un impatto significativo sulla SEO, ma si manifestano in modi diversi e richiedono approcci specifici per essere gestite efficacemente.

  • Contenuti duplicati interni

contenuti duplicati interni si verificano quando lo stesso contenuto appare su più pagine all’interno dello stesso sito web. Questo fenomeno può essere causato da vari fattori tecnici e operativi, come ad esempio la creazione di URL multipli per la stessa pagina se utilizziamo parametri URL per tracciare sessioni o filtri, che generano appunto versioni diverse della stessa pagina. Un altro esempio è la presenza di pagine di stampa o versioni AMP che replicano il contenuto delle pagine principali.

Un’altra causa frequente di contenuti duplicati interni è l’uso improprio dei tag di intestazione, come i tag title e i tag h1: se più pagine del sito utilizzano gli stessi tag title o h1, i motori di ricerca possono avere difficoltà a distinguere tra le diverse pagine, riducendo così l’efficacia della SEO.

Ancora, un altro caso comune riguarda i CMS che generano automaticamente versioni multiple della stessa pagina per categorie, tag o archivi, che porta a una ridondanza che confonde i motori di ricerca. Impossibile non citare poi i contenuti generati automaticamente: da anni alcuni siti web utilizzano software per generare automaticamente grandi quantità di contenuti basati su modelli predefiniti, senza badare troppo alla qualità delle informazioni o alla loro effettiva utilità per gli utenti. Google ha aperto una battaglia contro questi contenuti duplicati o poco originali – al centro ad esempio della violazione chiamata “scaled content abuse”, introdotta con il March 2024 spam update – senza dimenticare l’incombenza dell’Intelligenza Artificiale applicata alla creazione dei contenuti, che sta scombussolando il settore e porterà ancora ad altri cambiamenti.

Insomma: i contenuti duplicati nello stesso sito, detti anche contenuti duplicati interni, sono riferiti a livello di identicità di dominio o nome host. I loro danni SEO sono relativamente bassi e riguardano prevalentemente un possibile peggioramento della possibilità di buoni posizionamenti in SERP delle pagine interessate, sempre a causa della difficoltà per i crawler dei motori di ricerca di determinare quale versione sia da preferire e mostrare agli utenti come risposta pertinente alla loro query.

  • Contenuti duplicati esterni

contenuti duplicati esterni si verificano quando lo stesso contenuto appare su più siti web diversi.

Una delle cause più comuni di contenuti duplicati esterni è il plagio SEO, ovvero la copia non autorizzata di contenuti da un sito all’altro. Questo può avvenire sia in modo intenzionale, quando un sito copia deliberatamente contenuti da un altro, sia in modo non intenzionale, quando più siti utilizzano lo stesso contenuto fornito da una terza parte, come un fornitore di contenuti o un affiliato.

Un altro esempio di contenuti duplicati esterni è la syndication dei contenuti, ovvero la pubblicazione dello stesso contenuto su più siti web con l’autorizzazione del proprietario del contenuto originale. Sebbene la syndication possa essere una strategia efficace per aumentare la visibilità dei contenuti, è importante utilizzare il tag canonical o altri metodi per indicare ai motori di ricerca quale versione del contenuto deve essere considerata la principale.

Le cause dei contenuti duplicati: accidentali e intenzionali

Prendendo in considerazione più specificamente le cause della duplicazione dei contenuti possiamo riconoscere un’ampia serie di situazioni critiche. I contenuti duplicati possono infatti emergere per una varietà di ragioni, alcune delle quali sono accidentali, mentre altre sono intenzionali.

Tra gli esempi di contenuti duplicati non dannosi e non ingannevoli Google cita:

  • Forum di discussione, che possono generare sia pagine regolari sia pagine “abbreviate” associate a dispositivi mobili.
  • Articoli di un negozio online visualizzati o collegati tramite più URL distinti.
  • Versioni di pagine web disponibili solo per la stampa o versioni PDF.

La duplicazione accidentale dei contenuti è comunque molto frequente e dipende solitamente da errori tecnici o di configurazione del sito web.

Abbiamo già citato la creazione di URL multipli per la stessa pagina: se un sito genera URL diversi per la stessa pagina a seconda dei parametri utilizzati, come i parametri di tracciamento delle sessioni o dei filtri di ricerca, si ritroverà con versioni diverse della stessa pagina, tutte indicizzate dai motori di ricerca, causando confusione e dispersione del valore SEO. Un’altra causa frequente di duplicazione accidentale è l’uso improprio dei tag canonical, uno strumento potente che può aiutare a consolidare il valore SEO su un unico URL; se utilizzato in modo errato, può però portare a duplicazioni non intenzionali. Ad esempio, se il tag canonical non è impostato correttamente, i motori di ricerca potrebbero non essere in grado di determinare quale versione della pagina deve essere considerata la principale.

Anche le versioni di stampa delle pagine web possono causare duplicazione accidentale: molti siti offrono versioni di stampa delle loro pagine, che spesso replicano il contenuto della pagina principale. Se queste versioni di stampa non sono correttamente gestite con i tag canonical o con l’uso di meta tag noindex, possono essere indicizzate dai motori di ricerca, causando duplicazione dei contenuti.

Sono più numerose – e anche più fastidiose – le situazioni di duplicazione intenzionale dei contenuti: questo fenomeno, che ovviamente può avere conseguenze ancora più gravi per la SEO, si verifica quando un sito copia deliberatamente contenuti da un altro senza autorizzazione, causando ciò che viene anche definito plagio SEO, che non solo viola i diritti d’autore, ma può anche portare a penalizzazioni da parte dei motori di ricerca.

Rientra in questa casistica il content scraping, in cui i contenuti vengono estratti automaticamente da un sito e ripubblicati su un altro: queste pratiche illecite non solo danneggiano il sito originale, ma possono anche portare a penalizzazioni significative per il sito che effettua la raschiatura (traduzione letterale di scraping, che significa estrazione forzata dei dati dalla fonte originaria).

In generale, gli algoritmi di Google sono capaci di individuare queste situazioni di domain overlapping – ripetizione di un intero contenuto o una porzione di esso (ad esempio un paragrafo) su più siti differenti – soprattutto quando derivano da tattiche di Black Hat SEO, e quindi da una tecnica manipolativa nel “tentativo di controllare il posizionamento nei motori di ricerca o acquisire un traffico maggiore”.  Google conosce e cerca di punire i siti attraverso downgrading del ranking o addirittura rimozione dall’Indice, perché “pratiche ingannevoli come questa possono causare un’esperienza utente non soddisfacente”, mostrando ai visitatori “sempre gli stessi contenuti ripetuti in un insieme di risultati di ricerca”.

Oltre a questo problema di diversità per gli utenti, un contenuto duplicato esterno mette anche in imbarazzo Googlebot che, di fronte a contenuti identici in URL diversi, non sa inizialmente decidere qual sia la fonte originale ed è quindi costretto a prendere una decisione per favorire una pagina sulle altre, considerando elementi quali la data di indicizzazione, l’autorevolezza del sito e così via.

Contenuti duplicati e-Commerce, un tema spinoso

La duplicazione è molto frequente anche nei siti e-Commerce, soprattutto in caso di cattiva gestione dei parametri URL e della navigazione faceted, che crea quindi più pagine con contenuti identici raggiungibili a indirizzi differenti, tutti indicizzati dai motori di ricerca, oppure di impreciso utilizzo dei tag, che creano una sovrapposizione con le pagine di categoria.

Ma questo errore può derivare anche da altri fattori, come la pubblicazione come riproposizione senza variazioni delle schede prodotto fornite dal produttore originale di un articolo in vendita. Anche se intuitivamente sembra vantaggioso utilizzare descrizioni standardizzate fornite dai produttori o altri rivenditori, questa pratica può risultare dannosa per il posizionamento del sito nei motori di ricerca.

Contenuti duplicati: le cause tecniche

Abbiamo citato i principali elementi che determinano situazioni di contenuti duplicati interni o esterni sui siti, ma ora è il caso di ricapitolare ed elencare in modo più analitico le prime cinque cause tecniche involontarie del problema.

  1. Varianti dell’URL

parametri URL, come il monitoraggio dei clic e alcuni codici di analisi, possono causare problemi di contenuti duplicati, così come gli ID di sessione che assegnano un ID diverso memorizzato nell’URL a ogni utente che visita il sito o, ancora, le versioni stampabili (quando più versioni delle pagine vengono indicizzate).

Il consiglio in questo caso è cercare di evitare di aggiungere parametri URL o versioni alternative di URL, usando eventualmente script per trasmettere le informazioni che contengono.

  1. Versioni separate delle pagine

Può incorrere in un problema di contenuto duplicato un sito che ha versioni separate con prefisso www e senza, oppure se non ha completato il passaggio da HTTP:// ad HTTPS://, e mantiene attive e visibili ai motori di ricerca entrambe le versioni. Altre versioni separate sono le pagine con e senza trailing-slash, URL case sensitive (ovvero sensibili alla distinzione tra maiuscole e minuscole), URL ottimizzati per il mobile e le versioni AMP delle pagine.

  1. Contenuti scarni o sottili

Sono definiti scarni o thin content quei contenuti in genere brevi e di scarsa formulazione, senza valore aggiunto per gli utenti né originalità, che possono ripresentare porzioni del sito già pubblicate in altri URL.

Ne fanno parte anche le pagine archivi dei CMS come tag, autori e date e soprattutto quelle di paginazione (archivi di elenchi di post successivi alla prima pagina), che non siano adeguatamente ottimizzate o bloccate con un meta tag “noindex, follow”.

  1. Boilerplate content

Un elemento che può generare contenuti duplicati è anche il boilerplate content, ovvero il testo presente in header, footer e sidebar che per alcuni siti può addirittura essere la parte predominante del contenuto on page: essendo presente su tutti gli URL, può quindi diventare un problema se non adeguatamente trattato (ad esempio, implementando variazioni in base alla sezione del sito in cui si trova l’utente).

  1. Contenuto raschiato o copiato

In questa casistica non rientrano solo i problemi col plagio (che viola la legge sul diritto d’autore e contro cui Google ha attivato una specifica procedura per chiedere la rimozione della pagina colpevole dai risultati di ricerca ai sensi del Digital Millennium Copyright Act, la legge statunitense sul copyright), ma tutte le circostanze in cui sulle pagine si trovano riproposizioni raschiate (scraped) o esplicitamente copiate.

Oggetto di copia possono essere innanzitutto post di blog e contenuti editoriali, ma anche pagine di informazioni sui prodotti, i cui contenuti finiscono in più posizioni sul Web.

Le conseguenze negative dei contenuti duplicati

I contenuti duplicati rappresentano un problema a vario livello per tutti gli attori del Web – motori di ricerca, proprietari dei siti e utenti – e già questo ci fa comprendere perché è importante intervenire per correggere questi casi e per evitare la loro comparsa.

In dettaglio, per i motori di ricerca i contenuti duplicati possono presentare tre problemi principali:

  1. Incapacità di decidere quali versioni includere o escludere dai loro indici.
  2. Indecisione se indirizzare le metriche dei link (fiducia, autorità, testo di ancoraggio, link equity e così via) a una pagina specifica o tenerle separate tra più versioni.
  3. Difficoltà a decidere quale versione classificare per i risultati della query.

Per i proprietari di siti, invece, la presenza di contenuti duplicati può determinare peggioramenti di ranking e perdite di traffico, che derivano di solito da due problemi principali che, in entrambi i casi, non consentono al contenuto di raggiungere la visibilità nella Ricerca che altrimenti potrebbe avere:

  1. Una diluizione della visibilitàdi ciascuna delle pagine con contenuto duplicato – perché i motori di ricerca raramente mostrano più versioni dello stesso contenuto e quindi sono costretti a scegliere autonomamente quale versione è più probabile che sia il miglior risultato.
  2. Una diluzione ulteriore della link equity, perché anche altri siti dovranno scegliere tra i duplicati e quindi i backlink non punteranno a un solo contenuto.

Quando i contenuti duplicati sono responsabili di fluttuazioni nel posizionamento nelle SERP si verifica il problema della cannibalizzazione: Google non riesce a comprendere quale pagina offra il contenuto più rilevante per la query e quindi testa alternativamente gli URL di destinazione alla ricerca di quello più pertinente.

Per gli utenti, infine, i contenuti duplicati non sono utili e non offrono valore aggiunto, perché non sono unici.

Contenuti duplicati e Google, la posizione ufficiale

Il tema dei contenuti duplicati torna spesso nei discorsi ufficiali dei Googler, che hanno chiarito il modo in cui gli algoritmi interpretano e valutano le situazioni di eccessiva similarità tra le pagine web.

Il primo aspetto che dobbiamo tenere a mente è che non esiste una vera e propria sanzione per i contenuti duplicati, una penalizzazione come le altre che vengono segnalate con notifica in Google Search Console, né la duplicazione è qualcosa tipo un fattore negativo di ranking.

Se il problema riguarda lo stesso sito, in particolare, Google può usare anche un approccio soft: ovvero, può essere normale che un sito abbia lo stesso contenuto ripetuto su più pagine proprie e, quindi, una certa quantità di contenuti duplicati è accettabile. Gli algoritmi stessi del motore di ricerca sono addestrati a gestire questa eventualità frequente, che spesso si risolve semplicemente nella selezione di un solo contenuto per il posizionamento (quello canonico o comunque quello più idoneo secondo Google) e nella mancata visualizzazione degli altri, senza però che ciò comporti invio di segnali di ranking negativo per l’intero dominio.

C’è però un altro aspetto critico, perché le pagine duplicate possono gonfiare eccessivamente un sito e consumare il crawl budget di Google, sottraendo l’attenzione del crawler da pagine più utili e redditizie.

E poi c’è l’altro caso, ovvero sito beccato a pubblicare contenuti uguali o simili da altri siti, che invece può avere conseguenze SEO negative: anche qui, quando l’algoritmo di Google incontra lo stesso contenuto su più siti decide rapidamente quale pagina posizionare e quale invece retrocedere nelle classifiche o addirittura nascondere. E non è detto che Google scelga bene, perché sono frequenti i casi in cui la pagina posizionata è quella che in realtà ha copiato i contenuti da un altro sito che, invece, non ottiene la giusta visibilità.

È per questo, quindi, che in ottica SEO è fondamentale non solo non pubblicare contenuti duplicati, ma anche verificare che non ci siano altri siti che traggano per così dire eccessiva ispirazione dalle nostre pagine, così da metterci al sicuro da eventuali problemi.

Come verificare la presenza di contenuti duplicati

Per verificare se sul nostro sito sono presenti contenuti duplicati interni abbiamo a disposizione vari strumenti automatizzati o tecniche manuali per l’analisi dei contenuti duplicati.

Restando nell’ambito della nostra suite, possiamo lanciare una scansione con il SEO Spider che evidenzierà l’esistenza di pagine che abbiano lo stesso tag title, la stessa descrizione o gli stessi heading (un indicatore potenziale del problema), segnalando anche se abbiamo impostato correttamente un canonical. Inoltre, da questa scansione possiamo anche visualizzare l’elenco degli URL del sito e analizzarli per verificare di non aver usato parametri problematici.

Più complessa è invece la ricerca di contenuti duplicati esterni al sito: in questo caso, si può fare affidamento su specifici tool, come Copyscape, oppure lanciare delle ricerche manuali su Google.

L’uso di tool specializzati per l’analisi dei contenuti duplicati è uno dei metodi più efficaci per identificare rapidamente eventuali problemi: questi strumenti sono progettati per scansionare il sito web e confrontare i contenuti con quelli presenti su altre pagine del web, fornendo un’analisi dettagliata delle duplicazioni.

La verifica manuale richiede più tempo e sforzo, ma può offrire un livello di precisione e controllo che gli strumenti automatizzati potrebbero non garantire; questo metodo può quindi essere particolarmente utile per identificare duplicazioni che potrebbero sfuggire ai tool o per verificare la correttezza dei risultati ottenuti. Le tecniche più comuni ed efficaci per la verifica manuale sono:

  • Ricerca su Google. Una delle tecniche più semplici e immediate è quella di copiare una porzione di testo, una frase sufficientemente lunga o un paragrafo del contenuto “incriminato” (o che pensiamo possa esser stato copiato) e incollarlo nella barra di ricerca di Google tra virgolette. Questo metodo, che sfrutta uno degli operatori di ricerca avanzata, permette di vedere se esistono altre pagine web con lo stesso contenuto indicizzate da Google: se la SERP restituisce risultati con contenuti identici o molto simili, è probabile che effettivamente quel contenuto si trovi duplicato su altri siti.
  • Controllo dei tag title e h1. Possiamo anche analizzare manualmente che ogni pagina del tuo sito abbia tag title e tag h1 unici, accedendo al codice sorgente delle pagine o utilizzando strumenti di ispezione del browser.
  • Analisi dei parametri URL. Serve a controllare se il sito genera URL multiple per la stessa pagina a causa di parametri di tracciamento o filtri: possiamo esaminare i log del server o utilizzare strumenti di analisi del traffico web.
  • Verifica delle versioni di stampa e AMP. Dobbiamo controllare che le versioni di stampa e le eventuali pagine AMP del sito siano correttamente gestite con i tag canonical o con l’uso di meta tag noindex: questo può essere fatto accedendo a queste versioni delle pagine e verificando la presenza dei tag appropriati nel codice sorgente.

Come risolvere i problemi con i contenuti duplicati

A livello generale, la risoluzione dei problemi relativi ai contenuti duplicati si riduce a un solo obiettivo: specificare quale dei duplicati è quello “corretto“. Ci sono quindi alcuni interventi che possono servire a evitare la presenza di contenuti duplicati interni, e più in generale serve entrare nell’ottica di comunicare sempre a Google e ai motori di ricerca la versione preferita della pagina a fronte di quelle eventualmente duplicate.

In particolare, anche Google consiglia una serie di operazioni da eseguire per “risolvere in modo proattivo i problemi dei contenuti duplicati ed essere sicuri che i visitatori visualizzino i contenuti a loro destinati”.

  • Usare il tag canonical per specificare la versione ufficiale della pagina e indicare a Google di trascurare l’indicizzazione di eventuali varianti che potrebbe trovare durante il crawling del sito (ma, attenzione, Google può scegliere anche una pagina canonica diversa da quella impostata). Come sappiamo, questo tag HTML indica ai motori di ricerca quale versione di una pagina deve essere considerata la principale, consolidando così il valore SEO su un unico URL: ad esempio, se abbiamo diverse versioni di una pagina a causa di parametri URL o versioni di stampa, possiamo utilizzare il rel=canonical per indicare ai motori di ricerca quale versione deve essere indicizzata.
  • In alcuni casi, la soluzione migliore per risolvere i problemi di contenuti duplicati è la rimozione o la modifica dei testi problematici: se troviamo contenuti duplicati all’interno del nostro sito, dobbiamo quindi analizzarli e considerare di rimuovere le pagine meno strategiche o di modificarle per renderle uniche.
  • Più specificamente, un’altra strategia efficace per risolvere i problemi di contenuti duplicati è lavorare al consolidamento dei contenuti, che può includere la riscrittura totale, l’aggiunta di nuove informazioni o la riorganizzazione. Il consolidamento dei contenuti in un’unica pagina più completa e informativa può aiutare a migliorare la qualità delle informazioni, evitare la dispersione del valore SEO e anche migliorare l’esperienza dell’utente, offrendo informazioni più complete e pertinenti in un unico posto.
  • Se serve rimuovere un contenuto, è opportuno utilizzare un redirect 301 dalla pagina “duplicata” alla pagina del contenuto originale nel file .htaccess per reindirizzare gli utenti, Googlebot e altri spider in modo intelligente. Quando più pagine con il potenziale per classificarsi bene vengono combinate in una singola pagina, non solo smettono di competere tra loro, ma creano anche una maggiore rilevanza e un segnale di popolarità in generale. Ciò avrà un impatto positivo sulla capacità della pagina “corretta” di posizionarsi bene.
  • Gestire correttamente tag title tag h1: ogni pagina del sito dovrebbe avere tag title e h1 unici e descrittivi, in modo da evitare confusione nei motori di ricerca e migliorare la visibilità del sito.
  • Mantenere la coerenzaanche con i link interni.
  • Utilizzare domini di primo livello per consentire a Google di visualizzare la versione più appropriata di un documento.
  • Prestare attenzione alla diffusione di contenuti su altri siti, anche in casi di distribuzione in syndication (eventualmente, usare o chiedere di usare il tag noindexper impedire ai motori di ricerca di indicizzare la versione dei contenuti duplicata).
  • Ridurre al minimo la ripetizione di testo boilerplate.
  • Usare lo strumento per la gestione dei parametri in Search Console per indicare come vorremmo che Google gestisca i parametri URL.
  • Evitare la pubblicazione di pagine incomplete, come quelle per le quali non disponiamo ancora di contenuti effettivi (pagine segnaposto, per cui si può usare eventualmente il tag noindex per bloccarle ed evitare che vengano indicizzate).
  • Familiarizzare con il sistema di gestione dei contenuti e con le sue modalità di visualizzazione dei contenuti: ad esempio, una voce di blog può comparire con la stessa etichetta nella home page di un blog, in una pagina di archivio e in una pagina di altre voci.
  • Ridurre al minimo i contenuti simili, eventualmente espandendo le pagine troppo simili o consolidandole tutte in una sola pagina. Ad esempio, dice la guida, “se il tuo sito di viaggi contiene pagine distinte per due città ma le informazioni sono le stesse su entrambe le pagine, potresti unire le due pagine in una sola pagina riguardante entrambe le città o espandere ciascuna di esse in modo che presenti contenuti unici su ciascuna città”.

Best practice per evitare la duplicazione

La creazione di contenuti unici e di alta qualità è la prima linea di difesa contro i contenuti duplicati. Ci sono comunque alcune best practice che possiamo seguire per evitare la duplicazione e garantire che ogni pagina del sito offra valore aggiunto e sia distinta dalle altre.

  • Ricerca approfondita. Prima di creare nuovi contenuti, effettuare una ricerca approfondita ci aiuta a verificare che l’argomento non sia già stato trattato in modo esaustivo. Se troviamo contenuti simili, possiamo valutare di aggiornarli o di espanderli piuttosto che creare nuove pagine.
  • Originalità. Ogni pezzo di contenuto dovrebbe essere originale e non copiato da altre fonti. Utilizziamo una voce unica e uno stile di scrittura personale per distinguerci. Se vogliamo citare informazioni da altre fonti, è opportuno farlo in modo corretto, anche con un opportuno link, aggiungendo un commento o un’analisi per arricchire il contenuto.
  • Struttura chiara. È utile organizzare i contenuti in modo chiaro e logico, utilizzando titoli, sottotitoli e paragrafi ben definiti. Questo non solo migliora l’esperienza dell’utente, ma aiuta anche i motori di ricerca a comprendere meglio il contenuto della pagina.
  • Monitoraggio continuo. Utilizzare strumenti di monitoraggio e analisi può aiutarci a identificare rapidamente eventuali problemi e a intervenire tempestivamente.
  • Aggiornamenti regolari. Non è mai sbagliato ottimizzare i contenuti per tenerli aggiornati e pertinenti; i contenuti obsoleti possono essere fonte di duplicati non intenzionali.
  • Uso corretto dei tag. Ogni pagina deve avere heading unici e descrittivi. Mai utilizzare gli stessi tag title e h1 su più pagine, poiché ciò può causare confusione nei motori di ricerca e ridurre l’efficacia della SEO.

È possibile quantificare una soglia di duplicazione?

Il dubbio che spesso coglie SEO e copywriter riguarda la “soglia” di duplicazione che fa da discrimine tra un contenuto ritenuto nuovo e uno invece segnalato come copiato.

Registrazione
Evita i contenuti duplicati
Analizza il tuo sito e controlla se ci sono pagine con contenuti duplicati

Anche se ci sono tantissimi strumenti che analizzano le pagine e indicano un limite più o meno studiato in base alle loro scansioni, e molti esperti SEO ritengono il contenuto passa da simile a duplicato se le parti in comune superano il 30% del totale di copy, Google ha ribadito più volte che non esiste un valore di riferimento e che ogni caso è comunque a sé stante.

Sulla stessa scia ci sono gli altri principali motori di ricerca, che non definiscono cosa e quanto costituisca esattamente un contenuto duplicato, anche perché concretamente non potrebbero coprire tutti i casi e le situazioni.

Come dicevamo prima, quindi, l’unica soluzione è lavorare sui contenuti in maniera più accorta, provando a rendere il più possibile originale il testo presente in pagina per differenziarci dai competitor e offrire informazioni utili e interessanti agli utenti, andando anche nella direzione indicata da Google con il sistema algoritmico Helpful Content.

Prova SEOZoom

7 giorni di Prova Gratuita

Inizia ad aumentare il tuo traffico con SEOZoom!
TOP