Il tuo sito non si posiziona bene? Ecco gli errori SEO che lo bloccano

Provaci

Mettici alla prova

Analizza il tuo sito
Seleziona la lingua del database:

Non è sempre “colpa di Google” o della volatilità delle SERP: a volte il rendimento del nostro sito sul motore di ricerca è danneggiato da problemi tecnici o da veri errori SEO che non consentono di far esprimere il suo vero potenziale e di raggiungere le posizioni che desideriamo. Abbiamo quindi cercato di individuare alcuni dei più frequenti e comuni errori SEO da evitare in una strategia, ovvero quelle disattenzioni piccole e grandi, incongruenze o sbagli, sia on page che off page, che possono compromettere il rendimento di un progetto, oltre che il posizionamento delle parole chiave sui motori di ricerca. Ecco quindi quali sono questi errori sui siti, che possono far la differenza tra una strategia vincente e un fallimento nella corsa alle posizioni top su Google e, quindi, al traguardo di un traffico organico maggiore e di rendimenti superiori.

Quali sono gli errori comuni nella SEO

Gli imprevisti fanno parte della routine lavorativa in ogni settore, e gli errori SEO sono senza dubbio una variabile da tenere in considerazione nella valutazione dei rendimenti delle campagne.

Addio errori SEO!

SEOZoom è il tuo alleato strategico per gestire il sito e la strategia SEO senza incappare in errori che potrebbero costarti caro.
Academy
Webinar
Tools
Registrazione

Ciò non vale solo per i principianti della SEO o per coloro che stanno appena iniziando a fare le cose in ottica SEO, e non significa solo “evitare trappole“: il successo delle attività di ottimizzazione organica dipende da tanti dettagli e sfumature, e tutti dobbiamo ricordarcene per costruire una strategia più robusta e integrata.

Alcuni degli errori più frequenti includono un’inadeguata fase di ricerca delle parole chiave, la creazione di contenuti di bassa qualità, la trascuratezza dei titoli e delle meta descrizioni, la mancata ottimizzazione di fattori tecnici come la velocità di caricamento del sito o la responsiveness, la costruzione di un profilo di backlink di scarsa qualità, il non utilizzo di strumenti analitici come Google Analytics e Search Console, il trascurare i segnali sociali e il non aggiornare i contenuti regolarmente.

Errori SEO da evitare: guida per principianti (e non solo)

Per i neofiti e, in generale, per chiunque voglia lavorare al miglioramento della visibilità organica di un sito, comprendere questi errori è fondamentale per diverse ragioni: innanzitutto, la SEO è un campo in cui il successo dipende dalla capacità di adattarsi e di apprendere dalle proprie esperienze. Conoscere gli errori comuni permette dunque ai principianti di evitare di ostacolare il progresso e l’efficacia delle loro strategie.

Inoltre, serve anche dal punto di vista “teorico”, per comprendere come ogni elemento – anche quelli all’apparenza minori – possa poi contribuire al quadro generale della salute del sito su Google.

Il tutto senza dimenticare due elementi chiave: la SEO non è solo una questione di motori di ricerca, ma anche e soprattutto una questione di esperienza utente. Errori come ignorare l’esperienza mobile o la velocità di caricamento del sito possono allontanare gli utenti, riducendo il traffico e potenzialmente le conversioni. E poi, questo ambito è in continua evoluzione: quello che funzionava ieri potrebbe non essere efficace oggi, e quindi “aggiornamento” è un tema rilevante non solo per i contenuti, ma anche per le proprie competenze, ed è l’unico sistema per rimanere al passo con i cambiamenti e adattare le strategie di conseguenza.

10 errori di SEO organica

Iniziamo ad analizzare quelli che possono essere gli errori più comuni e “banali” che possiamo commettere sul sito, e che possono portare a un’enorme perdita di coinvolgimento e profitti degli utenti.

  1. Assenza di contenuti di qualità

Senza scomodare la vecchia massima “content is king”, è comunque indubbio che i contenuti abbiano un peso specifico rilevante per il successo sui motori di ricerca: di conseguenza, il primo e grave motivo che non fa funzionare la strategia SEO è l’assenza di contenuti di qualità sul sito.

Pubblicare contenuti scadenti, duplicati o privi di valore informativo o di originalità può danneggiare il ranking e la reputazione di un sito, ma soprattutto non invoglia gli utenti a visitare le sue pagine.

In linea di massima, è necessario garantire che i contenuti del brand siano utili e fruibili, di grande valore per il pubblico target. Assicurarci che il sito web pubblichi contenuti validi dovrebbe essere praticamente un obbligo sia per i proprietari/gestori che per i SEO specialisti che vi lavorano, perché è basilare offrire agli utenti delle pagine che meritano di essere viste, lette e consumate. Presentare invece contenuti non originali, con parti copiate a man basse da siti competitor, articoli pieni di errori grammaticali e altre cattive abitudini di scrittura SEO può convincere il pubblico ad abbandonare il sito web senza tornare più.

  1. Mancanza di keyword research efficaci

Un altro sbaglio che può portare al fallimento di una strategia SEO, ovvero l’assenza di una keyword research eseguita in modo adeguato: oggi non possiamo più fare alla “vecchia maniera” e cercare parole chiave tra quelle dal volume maggiore, ma dobbiamo lavorare in maniera consapevole, eseguendo un complesso di valutazioni che prendono in considerazione anche l’analisi dei competitor organici e le reali esigenze del sito e soprattutto dei suoi utenti.

Bisogna soprattutto indagare e scoprire il search intent che muove l’interesse delle persone verso una determinata query, e provare a ottimizzare i contenuti per rispondere a questa esigenza in maniera efficace.

  1. Non analizzare le keyword

Non basta però “raccogliere” le parole chiave, perché serve fare uno step ulteriore: dobbiamo cioè imparare a fare analisi delle keyword, un’altra attività strategica che può portare al successo (o al fallimento…).

Un errore in questo ambito può portare a ottimizzare i contenuti per termini irrilevanti o estremamente competitivi, riducendo le possibilità di raggiungere il pubblico giusto; allo stesso modo, non conoscere le parole chiave che il pubblico di riferimento utilizza per cercare online i nostri prodotti o servizi può ostacolare la visibilità.

Ancora più grave è sfruttare male le parole chiave nella gestione del piano editoriale e, ad esempio, creare contenuti per tutte le varianti delle keyword, sperando così di conquistare più traffico: già da anni la tattica di realizzare pagine multiple e specifiche per intercettare le possibili varianti di keyword di alto volume non dà più i risultati sperati, perché l’algoritmo di Google è capace di comprendere (quasi) perfettamente le variazioni semantiche e linguistiche delle parole.

Oggi è più utile creare un contenuto unico concentrandoci sul “topic” dell’intento percepito da Google e, soprattutto, dagli utenti che atterrano in pagina, fornendo come detto le giuste risposte alle esigenze delle persone. Tale sistema ci aiuta inoltre a evitare anche il rischio di cannibalizzazione di keyword e pagine, che rende il sito più difficile da usare e navigare e che genera incertezze anche al ranking.

  1. Non curare l’ottimizzazione del contenuto

Passando alla pratica e agli errori SEO onpage, ci sono vari ostacoli che possono compromettere la visibilità dei contenuti che pubblichiamo. Ad esempio, non ottimizzare i titoli delle pagine e le meta descrizioni può comportare opportunità perse di attirare utenti dai risultati di ricerca; non ottimizzare elementi come le intestazioni, gli attributi alt delle immagini e la struttura dell’URL può invece limitare la capacità del sito di essere compreso e indicizzato correttamente da Google. Ancora: non creare una struttura di link interni efficace impedisce ai motori di ricerca di comprendere la gerarchia e il valore delle pagine web, e contemporaneamente rischia di portare a un abbandono rapido dei lettori, che potrebbero invece essere trattenuti ancora sul sito da una corretta organizzazione di collegamenti di approfondimento tematico. E poi, un consiglio che vale sempre: il keyword stuffing, ovvero l’inserimento forzato e innaturale delle parole chiave nel testo, non solo non serve a rafforzare il ranking, ma può infastidire i lettori e può provocare una “svalutazione” del sito da parte di Google.

Rientra nella gestione del contenuto anche l’organizzazione del calendario editoriale e la regolarità delle pubblicazioni e degli aggiornamenti: un sito che non propone contenuti in modo sistemato rischia di essere abbandonato dai lettori, che cercano al contrario progetti in grado di fornire costantemente articoli coinvolgenti, interessanti e godibili, che forniscono un valore aggiunto alla navigazione. Ciò non significa pubblicare sempre, ogni giorno e senza troppi ragionamenti, ma appunto impostare efficacemente un piano editoriale strategico, magari fondendo esigenze di articoli “news” e altri evergreen.

  1. Sito lento

Passando ad aspetti tecnici di base, dovrebbe essere assodato (ma non lo è nella pratica) che un sito lento a caricarsi può frustrare gli utenti e influenzare negativamente sia il ranking, sia il tasso di conversione.

La velocità di caricamento di un sito e delle sue pagine è un fattore di ranking assodato, e non strutturare il progetto in modo fluido e leggero è sicuramente uno sbaglio che alla lunga può penalizzare posizionamento e rendimenti. Caricare immagini troppo pesanti, utilizzare codici pesanti o determinati elementi di back-end (anche JavaScript) rischia di incrementare il crawl budget e di rendere troppo complessa la scansione degli spider dei motori di ricerca.

  1. Carenze sulla user experience

Un altro macigno che può gravare sulla SEO di un sito è rappresentata dalla scarsa cura alla effettiva fruizione da parte delle personel’user experience è un valore chiave per ottenere buoni risultati perché, come dicevamo in altre occasioni, è un insieme di interventi che rendono il sito più piacevole da navigare e utilizzare, che hanno effetti sia sul tempo speso sulle pagine che sulla possibilità di ritorno dell’utente.

È chiaro che siti con elevato bounce rate o bassi valori di dwell time (il tempo di permanenza sulla pagina di un utente che arriva da una SERP di Google prima di tornare al motore di ricerca) possono avere prestazioni peggiori anche nel posizionamento su Google, e una campagna SEO che non migliori questi aspetti non offrirà loro alcun beneficio.

  1. Trascurare la versione mobile del sito

In un’era in cui la navigazione da dispositivi mobili è predominante, non avere un sito web mobile-friendly può penalizzare seriamente la visibilità sui motori di ricerca.

Il minimo standard odierno è offrire agli utenti un design responsive, evitando poi altri fattori di disturbo come gli annunci interstitial, che per giunta sono visti molto negativamente da Google perché rendono complicata la fruizione dei contenuti da parte delle persone che usano smartphone.

  1. Problemi con i link e il profilo backlink

I link sono l’essenza stessa della Rete, per cui non dobbiamo avere paura di riceverne e di inserirli sul nostro sito, ma bisogna sempre prestare la dovuta attenzione alla strategia.

Ad esempio, i link interni possono aiutare a costruire la struttura di navigazione (per motori di ricerca e utenti) e possono contribuire a trattenere i lettori sul sito, a patto di gestirli correttamente ed evitare dimenticanze nocive, come i “broken link“, i collegamenti rotti che non portano ad altre risorse e che minano l’organizzazione strutturale del sito e delle sue pagine, o i link interni con attributo nofollow.

Passando ad alcuni errori di SEO offpage: il profilo backlink di un sito ha un peso fondamentale sia per il ranking che per la sopravvivenza rispetto alle evoluzioni delle interpretazioni che l’algoritmo applica ai link. Il rimando più immediato è ovviamente all’uragano scatenatosi dopo l’aggiornamento Penguin, che avviò una battaglia contro i link spam che poi è proseguita (anche se con intensità minore).

Acquisire backlink da siti di scarsa qualità o non pertinenti può essere visto come una pratica manipolativa da Google e portare a penalizzazioni. Parliamo della tendenza a lanciarsi in campagne di article marketing e link building senza strategia e in modo spam, su siti di bassa qualità e proponendo contenuti di qualità bassa, che non rappresentano un valore aggiunto all’esperienza dell’utente e del lettore, mentre la gestione di un profilo backlink bilanciato e con riferimenti pertinenti può portare benefici in termini di ranking.

In questo senso, è decisivo ottimizzare la campagna di link building, portandola avanti in modo consapevole e accorto, cercando di non attuare strategie estreme e azzardate, che potrebbero provocare penalizzazioni da parte di Google, valutando eventualmente anche l’utilità di fare ricorso al disavow links tool.

  1. Ignorare i social

Non avere una presenza sui social media o non integrare elementi social sul sito può limitare la diffusione dei contenuti e la creazione di backlink naturali, nell’ottica del concetto di curare tutti i “segnali social” che riguardano il nostro brand, per amplificarne la visibilità e attirare nuovi visitatori.

  1. Non monitorare i rendimenti

Il decimo errore SEO è non controllare gli effetti del lavoro, non monitorare l’andamento del posizionamento del sito in maniera attenta e costante, non avere idea del mercato e della concorrenza e non conoscere quali sono le keyword per le quali il sito è posizionato e che generano la parte maggiore del traffico organico, non avere mai eseguito un SEO Audit per rilevare gli eventuali problemi presente, non aver installato e collegato le proprietà Google Analytics e Search Console.

Insomma, il decimo errore è essere online senza strategia… e senza utilizzare SEOZoom, che invece è lo strumento ideale per accompagnare ogni tipo di attività online e renderla più performante!

Altri errori che compromettono le campagne SEO

Se questi sono alcuni dei classici errori che compiono i principianti SEO – ma da cui non sono esenti neppure chi è nel campo da più tempo – ci sono poi altri fattori che possono compromettere l’esito di un’attività di ottimizzare e portare a cali di traffico.

  • Infrangere le regole di Google e copiare le bad practices dei concorrenti

Può apparire banale, ma se desideriamo il traffico guidato da Google dobbiamo (dovremmo?) accettare anche le “condizioni” imposte dal motore di ricerca; pertanto, “infrangere le regole” in maniera volontaria e violare le linee guida di Google è sicuramente un errore in partenza.
Lo diceva qualche tempo fa anche John Mueller in uno scambio di tweet con l’utente Vivek Patel (che si definisce Local Search Analyst & Content Marketer): alla domanda “dovrei copiare le strategie di siti concorrenti che costruiscono directory links e ottengono buoni risultati di ranking?”, il Search Advocate di Google ha risposto in maniera secca di non pensare mai di infrangere le regole e le linee guida, concordando nel fatto che il motore di ricerca “penalizzi i siti web che cercano di ingannare i suoi algoritmi“.
John Mueller ha aggiunto che i siti in discussione potrebbero avere buon ranking “nonostante” le strategie sconsigliate, non “grazie” a loro, ma che in ogni caso il suggerimento che si sente di offrire è di non copiare le loro bad practices, quando sai mettere in campo interventi migliori e più leciti. La discussione è proseguita con gli interventi di altri utenti, che hanno più o meno apprezzato le parole di Mueller e fornito altri pensieri interessanti in materia, tra cui scegliamo una similitudine che ci sembra appropriata per raccontare un po’ quello che succede nella SEO.

Usare le bad practices cui fa riferimento Mueller equivale al rischio che ci si assume superando i limiti di velocità alla guida: sicuramente si impiega meno tempo per raggiungere il proprio obiettivo, ma (forzando un po’ la mano) si incrementano anche le possibilità di incidenti. Parlando di SEO e motori di ricerca, sappiamo che ci sono tantissime realtà che si posizionano (anche o principalmente) grazie all’acquisto di link o con altre tecniche aggressive, e Google a volte sembra essere un vigile distratto, che lascia passare anche auto che sfrecciano a 150 km/h. Tuttavia, c’è sempre la possibilità che il vigile drizzi lo sguardo e lo punti contro questi siti, come accaduto in passato con alcuni dei più rilevanti aggiornamenti dell’algoritmo di Google o le penalizzazioni.

  • Non badare agli aggiornamenti dell’algoritmo di Google

Non possiamo controllare la frequenza e gli effetti degli aggiornamenti di Google e del suo algoritmo, che generano modifiche in grado di influenzare anche in modo significativo i risultati di ricerca dei siti, ma possiamo però restare informati sul loro rilascio e cercare di adattare proattivamente il nostro sito.

I broad core update, in particolare, sono dei periodici interventi di “messa a punto” della qualità dei risultati, con i quali il motore di ricerca smuove un po’ le query alla luce di nuove (e sempre misteriose) riconsiderazioni circa i famosi 200 fattori di ranking.

Ciò significa che, già nella fase di impostazione della strategia SEO, bisogna essere flessibili e pronti a correggere il tiro alla luce di eventuali novità da parte di Big G, che resta il punto di riferimento finale di questa attività.

  • Non fornire una sitemap

La sitemap è un elemento strategico del sito ed è utile anche ai fini dell’indicizzazione sui motori di ricerca, perché comunica direttamente ai bot di Google, Bing eccetera qual è il percorso giusto che collega le varie pagine del sito e imposta i loro livelli di priorità, evitando che possano essere penalizzati gli elementi più importanti o al contrario che i gli spider perdano tempo con contenuti che hanno scarsa rilevanza per noi.

  • Sottovalutare il file robots.txt

Maneggiare con cautela: è questo il messaggio che dovrebbe “comparire” a chi si approccia per la prima volta alla creazione del file robots senza particolare esperienza, o che decide di affidare la gestione di questo documento al “proverbiale cuggino”. Questo piccolo file assume un ruolo di vitale importanza per la visibilità organica, perché ha il potere di dirigere i motori di ricerca su quali parti del sito possono accedere e quali no, e basta un semplice “slash” per provocare un disastro.

Ad esempio, tra questo comando

User-agent: *

Disallow:

e questo

User-agent: *

Disallow: /

c’è tutta la differenza del mondo. Nel caso in alto, diamo accesso libero a tutti i crawler su tutte le pagine e le risorse del sito. Nel caso in basso, invece, quella semplice barretta obliqua comunica esattamente l’istruzione opposta, ovvero istruzione dice a tutti i motori di ricerca (indicati da “User-agent: *”) di non accedere e non indicizzare nessuna parte del sito (indicato da “Disallow: /”).

Se usato impropriamente o “involontariamente”, quindi, questo errore provoca un blackout virtuale per il sito e per le sue pagine che, una volta visibili e forse anche ben posizionati nei risultati di ricerca, scompariscono come se fossero stati inghiottiti da un buco nero, che trascina ovviamente con sé il traffico organico, la visibilità e le opportunità di raggiungere nuovi clienti o lettori.

Ma non finisce qui. Anche se l’errore viene corretto in fretta, i motori di ricerca potrebbero impiegare del tempo per riscansionare e reindicizzare il sito, durante il quale il ranking potrebbe essere compromesso. Questo intervallo di tempo, in cui il sito è come se non esistesse, può essere fatale per la reputazione e l’autorità del brand online. Per i siti e-commerce o per quelli che si affidano alla generazione di lead, la situazione può diventare ancora più critica: senza traffico, le vendite e i ricavi possono subire un colpo dal quale non è facile riprendersi.

  • Cancellare le risorse senza gli opportuni redirect

Anche i siti sono in continua evoluzione e spesso ci troviamo a rimetter mano a risorse obsolete, inutili o comunque “da gettar via”: è però un errore eliminare i contenuti senza eseguire alla perfezione i redirect necessari. Cancellare una pagina, un tag, una categoria o anche solo un’immagine ha sempre un impatto sul sito e sulla navigazione del motore di ricerca: se i crawler di Google non trovano più l’elemento che faceva riferimento a quel collegamento e, al tempo stesso, non è presente il redirect verso un’altra risorsa (che comunica che si è di fronte a un semplice cambio di indirizzo) si genera il classico errore 404, che può alla lunga portare problemi di usabilità e di posizionamento.

  • Errori con la versione multilingua

Sempre restando nell’ambito di errori di livello più avanzato, spesso c’è una generale difficoltà con le impostazioni multilingua.

Detto più semplicemente, sono tante le problematiche che si incontrano quando si decide di impostare un sito multilingua: il più banale è tradurre meccanicamente i contenuti senza alcuna attenzione alla qualità dei testi, ma ci sono anche gli inconvenienti con i valori di hreflang, conflitti all’interno del codice sorgente delle pagine, link errati nell’hreflang e così via.

Tutti fattori che fanno danni al sito e alla strategia SEO, e che dovrebbero spingere a una considerazione: se non si ottimizza il sito multilingua, meglio lasciare solo la versione in lingua originale e concentrarsi a migliorare questi risultati.

  • Applicare strategie SEO obsolete e non aggiornate

La SEO è un processo continuo, non un’attività “set and forget“: un altro errore che può compromettere il successo online è quindi attivare campagne basate su tattiche poco aggiornate o addirittura obsolete, assolutamente non in linea con gli ultimi trend consigliati dalla community internazionale o ufficializzati dalle linee guida di Google.

Per quanto possa apparire sorprendente, ci sono ancora molti pseudo-specialisti che consigliano ai clienti strategie basate su link reciproci, contenuti infarciti di keyword stuffing, campagne di link building con uso di soli anchor text manipolativi e di corrispondenza esatta, o che non intervengono sui dettagli tecnici per migliorare la struttura dell’URL o impostare al meglio il file robots.

Anche se a volte sembra che Google possa “chiudere gli occhi” su alcuni elementi e posizionare in alto siti apertamente spam, utilizzare queste tattiche insieme significa quasi boicottare in partenza il progetto.

  • Attendere risultati troppo presto

Anche la pazienza è una dote fondamentale per chi cerca di ottenere il massimo dalle proprie campagne: la SEO è un’attività a medio-lungo termine, che necessita dei giusti tempi di pianificazione e di raccolta dei risultati, e per iniziare a vedere degli effetti concreti e duraturi agli sforzi e interventi messi in atto bisogna preventivare un tempo di attesa di almeno 3 mesi, anche se qualche segnale incoraggiante può comparire già prima.

Solo entrando in questa ottica si può evitare di cadere nella tentazione di ritenere fallita una campagna dopo solo poche settimane o di cambiare continuamente aspetti tecnici al sito senza capire se le modifiche precedenti possano concretamente essere vincenti.

Errori sito e SEO, lo studio dagli Stati Uniti

Ovviamente, il tema degli errori SEO è stato nel tempo al centro di varie indagini e discussioni, e in particolare una ricerca di Zazzle Media, pubblicata su Search Engine Watch, ci permette di approfondire meglio tali difficoltà e di avere anche delle indicazioni per riprenderci.

Academy
Webinar
Tools
Registrazione

SEO: Senza Errori Orribili!

Ottimizza il tuo sito web, evita gli errori e punta dritto al successo

Per questo lavoro, la content marketing agency britannica ha svolto migliaia di attività di audit per siti di vari settori e dimensioni, trovando alcuni problemi distintivi che si ripetono più e più volte: ad esempio, alcune piattaforme CMS hanno le loro cadute e causano ripetutamente gli stessi problemi tecnici, ma la maggior parte delle volte le criticità sono causate da siti gestiti da più persone, lacune nella conoscenza o semplicemente il fattore tempo.

Da questa analisi sul campo emergono i nove più comuni errori sui siti e, soprattutto, le strategie da attuare per correggerli.

  1. Link interni rotti

Uno dei problemi più semplici, ma che può anche sfuggire se non si fa un check specifico, è quello dei broken internal link, collegamenti interrotti che possono interrompere il percorso dell’utente e impedire ai crawler di collegare contenuti. Questo errore può influire negativamente sull’autorità della pagina e interrompere il flusso di equity del collegamento.

Per scoprire se sul sito ci sono link interni che non funzionano è sufficiente fare una scansione usando uno strumento di analisi, che restituisce tutti i casi di errore.

  1. Lunghezza dei meta title

Se Google ha dedicato specifiche guide all’ottimizzazione degli snippet di anteprima, significa che titoli e meta description sono davvero importanti! In genere, gli errori più frequenti per questi campi riguardano la gestione della lunghezza del contenuto (anche perché le analisi non possono spingersi a investigare l’effettiva qualità fornita), e nei casi peggiori possono determinare negativamente le sorti di un business.

Quando troppo brevi, i meta title possono essere spia di una mancanza di targeting, mentre al contrario quando sono troppo lunghi possono essere troncati in SERP e quindi risultare inefficaci: in entrambe le situazioni, il rischio è non conquistare il clic dell’utente e quindi avere un CTR basso.

  1. Reindirizzamenti dei link interni

Il continuo reindirizzamento dei collegamenti interni può causare problemi all’architettura del sito, in quanto gli utenti e i motori di ricerca impiegano un po’ di tempo in più a trovare i contenuti.

Con la modifica del contenuto o l’esaurimento dei prodotti viene utilizzato in genere un redirect permanente (301) o temporaneo (302: qui la nostra guida ai codici di stato HTTP utili da conoscere): il 302 indica a un motore di ricerca di mantenere la vecchia pagina, poiché è una misura temporanea; il 301 segnala che la pagina è stata spostata in modo permanente e sarà sostituita nella nuova posizione.

I Redirection loops – cicli di reindirizzamento – si verificano quando il nostro browser dice al motore di ricerca di reindirizzare a una pagina, che a sua volta dice al nostro browser di reindirizzare a un’altra pagina e via così fino a raggiungere la destinazione finale. I loop di reindirizzamento dovrebbero essere evitati a tutti i costi, poiché aumentano il tempo di scansione e possono inviare segnali misti ai robot di ricerca.

Il problema non sta nel redirect, se completato correttamente, ma nei link che puntano al reindirizzamento dell’URL: ad esempio, l’URL “uno” reindirizza a un nuovo URL “due”, ma l’URL “tre” punta ancora all’URL “uno”. Anche in questo caso, una scansione ci permette di scoprire tutti i casi critici, su cui possiamo intervenire tramite CMS modificando la destinazione href in modo che punti al nuovo URL corretto.

  1. Sitemap obsolete

Le sitemap XML non devono essere statiche e si consiglia di utilizzare una sitemap.xml dinamica, per essere sicuri che il CMS aggiorni automaticamente questa directory di file ogni qual volta aggiungiamo un contenuto o una risorsa media.

È comunque bene fare attenzione all’uso delle sitemap dinamiche, perché si rischia di aggiungere URL non desiderati.

  1. URL orfani

Le pagine orfane, note anche come “pagine mobili“, sono URL indicizzati e pubblicati ma che non possono essere trovati seguendo i link interni dagli utenti né dai motori di ricerca (e quindi potenzialmente mai sottoposta a scansione). Uno scenario tipico di una pagina orfana potrebbe essere una vendita stagionale: una volta la pagina era necessaria, ma dopo il cambio di stagione è diventata obsoleta.

Fondamentalmente, dicono gli esperti, la presenza di poche pagine orfane non è dannosa, ma se aumentano possono gonfiare il sito, determinando una scarsa distribuzione della link equity, cannibalizzazione delle parole chiave e una scarsa esperienza di percorsi di link interni sia per il bot di ricerca che per l’utente.

  1. Velocità del sito

Lo abbiamo già detto anche prima: la velocità di caricamento ha un ruolo cruciale sulle performance del sito, almeno da quando è partito il Google Speed Update che l’ha resa ufficialmente un fattore di ranking. La velocità del sito è strettamente correlata alla buona esperienza dell’utente e i siti Web lenti hanno alte frequenze di rimbalzo a causa del caricamento prolungato dei contenuti (e potenzialmente rendimenti peggiori).

  1. Struttura e gerarchia del sito

La struttura gerarchica del sito Web, nota anche come architettura dell’informazione, è essenzialmente il modo in cui la navigazione del sito viene presentata a un motore di ricerca o a un utente.

Il problema fondamentale di cui soffre la maggior parte dei siti Web è la distribuzione del ranking delle pagine, stando allo studio, perché le pagine principali dei siti Web o le pagine più redditizie dovrebbero trovarsi a non più di tre clic dalla home page.

Senza una gerarchia efficace, il crawl budget può essere sprecato e le pagine nelle profondità del sito potrebbero avere un posizionamento mediocre, poiché Google non è sicuro dell’importanza della pagina e l’equità dei collegamenti potrebbe essere distribuita in modo più leggero.

  1. Gestione della linking interna

I link interni sono una caratteristica importante di un sito perché consentono agli utenti di navigare all’interno delle pagine e, dal punto di vista SEO, consentono ai crawler dei motori di ricerca di comprendere le connessioni tra i contenuti.

Un’efficace strategia di collegamento interno potrebbe avere un grande impatto sulle classifiche, ma spesso – soprattutto nei siti complessi – si notano situazioni disordinate. Ad esempio, anchor text che non contengono una parola chiave, le incoerenze di collegamento degli URL per volume (ai fini della distribuzione di PageRank) e collegamenti che non puntano sempre alla versione canonica di un URL: tutto questo possono creare segnali misti per i crawler e alla fine confonderli al momento dell’indicizzazione dei contenuti.

  1. Contenuti di bassa qualità

Uno dei pilastri della SEO è offrire contenuti di qualità, unici e utili per gli utenti: un lavoro che richiede tempo e costanza e che, quando non eseguito correttamente, crea quelli che sono chiamati contenuti thin o scarni. Si tratta di pagine di scarsa qualità, che non consentono di comprendere i servizi aziendali e le offerte di prodotti e sono inoltre esplicitamente contrarie alle linee guida di Google, che possono comportare nel caso peggiore uno scenario di penalità.

La lunghezza del testo potrebbe essere un primo parametro per capire se i contenuti sono sottili, ma sappiamo che in realtà il numero delle parole è solo un indicatore quantitativo ed è legato ad altri fattori. Ad ogni modo, concentrarsi prima sul “fortificare” e rendere più utili le pagine più brevi può essere un modo per migliorare la qualità dei testi forniti.

Iscriviti alla newsletter

Prova SEOZoom

7 giorni di Prova Gratuita

Inizia ad aumentare il tuo traffico con SEOZoom!
TOP