Negli Stati Uniti non si è ancora fermata l’onda lunga delle polemiche scaturite dall’articolo del 15 novembre con cui il Wall Street Journal sostiene che Google interferisce con l’algoritmo di ricerca per orientare le SERP: oltre a qualche voce critica contro il motore di ricerca, in realtà, la maggior parte dei commenti della comunità SEO ha difeso Google, analizzando anche gli errori commessi dai giornalisti. Secondo Sam Ruchlewicz, VP of Digital Strategy & Data Analytics di Warschawski, sono 5 i principali punti deboli dell’attacco del WSJ.

I 5 principali errori del Wall Street Journal

L’esperto americano, dirigente della compagnia che opera a tutto tondo nel campo della comunicazione digitale, ha scritto un lungo intervento pubblicato su SearchEngineJournal in cui si sofferma sul debunking dell’articolo originario del Wall Street Journal, evidenziando in particolare almeno 5 grandi errori e fraintendimenti presenti (in realtà, ne ha trovati ben 34, segnalati in un altro pezzo sul blog aziendale).

1.     Con le modifiche all’algoritmo, Google favorisce le grandi aziende

Il primo punto su cui si concentra l’autore è l’affermazione secondo cui “Google ha apportato modifiche algoritmiche ai risultati di ricerca che favoriscono le grandi aziende rispetto a quelle più piccole”, che risulta “pericolosa e ingiusta” perché mette in discussione la credibilità di Google e dell’intera search community.

In primis, “non ci sono prove offerte nell’articolo che Google modifichi il suo algoritmo per favorire le aziende più grandi rispetto a quelle più piccole”, e alla prova dei fatti siamo di fronte a un “esempio da manuale dell’errore di correlazione“, ovvero del frequente errore in cui si scambia una correlazione per una relazione di causa-effetto.

Google non favorisce le grandi aziende

Secondo Ruchlewicz “in linea di massima, le aziende più grandi sono più brave nel marketing rispetto alle aziende più piccole” anche perché hanno più risorse a disposizione, da investire non solo in advertising, ma anche nello sviluppo di contenuti, nella creazione di siti Web e così via. Ma questo non implica che Google conceda loro favori particolari, ma che non esistono condizioni di partenza pari (come diceva già anche l’ex Googler Kaspar Szymanski appena qualche giorno fa).

Come sappiamo, Google favorisce i contenuti di alta qualità pubblicati su siti Web autorevoli e di alta qualità: esistono innumerevoli esempi di piccole aziende che si posizionano bene per query di alto valore, perché “hanno messo in pratica il duro lavoro richiesto per produrre contenuti di alta qualità e di valore unico, hanno backlink sicuri e autorevoli sicuri e offrono tali contenuti su un sito Web ben costruito”.

Il successo dipende dalle strategie SEO

Nessuna “magia nera“, quindi, ma solo “un’esecuzione costantemente brillante di una solida strategia SEO“, che comunque non mette al riparo dagli effetti di modifiche dell’algoritmo di Google, che possono “materialmente influenzare” i business. Puntare però il dito contro queste variazioni significa ignorare alcuni fatti, ovvero che:

  • Nessuna azienda ha diritto al traffico organico di Google (o di qualsiasi altro motore di ricerca), perché il traffico organico si ottiene attraverso il duro lavoro descritto sopra.
  • Se un’azienda fa affidamento sul traffico organico di Google, è probabilmente una buona idea affrontare quel fattore di rischio tramite altri investimenti di marketing.
  • Google rende relativamente semplice restare aggiornati grazie alle linee guida per i webmaster e alle linee guida per i Quality Rater.

2.     Google usa dei collaboratori esterni sottopagati per valutare la qualità delle SERP e indirizza il loro lavoro

Proprio sul tema quality rater si incentra il secondo capitolo del debunking eseguito dall’esperto americano, che contesta le affermazioni del WSJ usando come prova alcuni numeri e considerazioni:

  • Google impiega indirettamente circa 10mila quality rater (pagati circa 13,50 dollari l’ora, per la cronaca) in tutto il mondo in qualsiasi momento tramite un network di società appaltanti.
  • Google porta avanti questo programma almeno dal 2005.
  • I QR non sono sostanzialmente diversi dai revisori o dai controllori della qualità, che valutano i risultati utilizzando una serie di linee guida disponibili al pubblico: loro non hanno accesso o controllo su qualsiasi componente di algoritmi di Google, ma sono solo tester che devono verificare che il prodotto (l’algoritmo di ricerca, nel caso specifico) stia funzionando come previsto.

Approfondendo ancora la questione, Ruchlewicz scrive che “nel corso dei 15 anni di storia del programma, Google ha probabilmente impiegato milioni di QR; il loro mandato nella maggior parte è breve (ad esempio, l’individuo citato nell’articolo del WSJ ha lavorato per soli 4 mesi), il che limita la lealtà e complica gli sforzi per interferire”. Portando agli estremi il discorso, quindi, “Google sarebbe impegnato in una vasta cospirazione per manipolare il feedback che sta pagando centinaia di milioni di dollari ogni anno”, una situazione paradossale che è difficile anche da gestire in termini pratici, viste le dimensioni e la durata.

3.     In contrasto alla sua policy, Google ha apportato cambiamenti per favorire eBay

Un tema molto spinoso è quello del rapporto tra Google e gli inserzionisti, in particolare eBay: secondo il WSJ, in almeno un caso il motore di ricerca avrebbe apportato modifiche algoritmiche per favorire il sito do vendite, in aperta violazione delle policy e delle affermazioni pubbliche in cui sostiene la trasparenza e la indipendenza del motore. In realtà, spiega Ruchlewicz, questa affermazione  contiene ben tre presupposti sbagliati.

  • Innanzitutto, il WSJ fa confusione tra SERP organiche e Google ADS, due realtà che sappiamo essere distinte e separate, perché non si può “comprare” posizionamento organico su Google.
  • Secondo aspetto, la perdita di ranking per le pagine di eBay nel 2014 derivava sì da modifiche algoritmiche di Google, ma anche dalla struttura stessa del sito, che non offriva più “contenuti di qualità“: lo dimostra il fatto che, dopo le successive correzioni e gli interventi di miglioramento, il sito è tornato a essere ben visibile in SERP.
  • Il terzo punto oscuro è in realtà frutto di un ragionamento: Google avrebbe modificato il ranking per ottenere appena 30 milioni di dollari da eBay in investimenti pubblicitari annuali. Volendo portare all’estremo le tesi del WSJ, Google quindi può permettersi di spendere più di 200 milioni dollari per un controlli di qualità sulle SERP che poi ignora e/o manipola, ma allo stesso tempo ha paura di perdere 30 milioni di entrate pubblicitarie da eBay, per cui mette a repentaglio l’intero business aziendale (da 900 miliardi di dollari!) esponendosi a enormi responsabilità e indagini regolamentari.

4.     Google ha delle blacklist ed esclude siti specifici per determinati risultati

Questa errore ne contiene vari e parte dall’uso di un termine come blacklist per descrivere cose diverse, ma soprattutto si basa su una teoria complottistica – Project Veritas – che è stata ampiamente smentita e screditata.

In dettaglio, l’autore chiarisce le seguenti questioni:

  • È vero che Google “filtra” i suggerimenti di completamento automatico secondo le sue norme; non è una novità e le linee guida sono pubbliche.
  • Non ci sono prove che Google sia manipolando questi risultati in violazione alla sua policy (neppure nella risibile e incompleta analisi del WSJ di 17 ricerche condotte in più di 31 giorni).
  • È vero che Google blocca l’indicizzazione di siti spam, ma lo fa almeno dal 2004; inoltre, c’è molta trasparenza sulle penalizzazioni via manual action.
  • Ci sono stati problemi di indicizzazione, anche di recente, ma è nell’interesse di Google stesso intervenire per risolvere la questione in modo rapido.

5.     Google non ha posizioni di parte contro i siti conservatori

Infine, l’ultima parte dell’articolo debunkata dall’esperto americano riguarda il presunto bias che il motore di ricerca avrebbe nei confronti di determinati orientamenti politici, soprattutto di area conservatore. Anche in questo caso, studi approfonditi hanno dimostrato che Google non ha posizioni di parte contro questi siti specifici, ma che eventuali assenze in SERP o evidenza di altri risultati dipendono da regolari attività SEO.

Chiarire come funziona un motore di ricerca

L’obiettivo di Ruchlewicz non è tanto quello di screditare il report del Wall Street Journal (che comunque resta criticabile), ma contrastare la falsa affermazione che il sistema di ricerca è una sorta di “magia nera” truccata o distorta, di cui quindi non ci si può fidare. Secondo l’autore “c’è sicuramente molto lavoro da fare per educare sia i giornalisti che il pubblico su come funzionano i motori di ricerca“, che sono tra i pezzi più importanti e misteriosi dell’infrastruttura online.

L’argomento così complesso, ma si può semplificare ricordando che i motori di ricerca hanno il compito di “portare una parvenza di ordine in quel corpus di informazioni altrimenti caotico, inimmaginabilmente grande e in costante mutamento di informazioni che è il Web, in modo che quando tu o io stiamo cercando qualcosa online, possiamo trovarlo”.

Il processo preciso resta misterioso e ignoto

Ovviamente, “l’esatto processo e i fattori che i motori di ricerca utilizzano per compiere quel compito monumentale sono avvolti nel segreto, protetti da migliaia di brevetti e potrebbero essere ignoti” per sempre, aggiunge. E proprio questa combinazione – da un lato, la pervasività e la centralità dei motori di ricerca nelle nostre vite quotidiane, dall’altro il mistero nel modo in cui funzionano – “ha alimentato sentimenti di confusione e sfiducia, per non parlare di alcune teorie del complotto (molte delle quali, fortunatamente, sono state sfatate)”.

Di sicuro, ammette Ruchlewicz, “ci sono preoccupazioni reali e legittime su come la grande tecnologia in generale – e i motori di ricerca come Google in particolare – esercitino il loro vasto potere per plasmare il nostro mondo”, così come molti nel settore SEO hanno mosso critiche legittime a Google, che vanno dalla sua propensione a prendere contenuti dagli editori (ancora una volta, ricordiamo il caso Google News in Francia) alle pratiche di raccolta dati, fino alla sua apparente propensione a favorire i propri prodotti / servizi (come dimostrato da Rand Fishkin nell’intervento a SMX che abbiamo trattato a inizio settimana).

Google non è perfetto, ma il WSJ non ha creato un articolo affidabile

In definitiva, secondo l’autore, “nessuna organizzazione è perfetta e Google non fa eccezione”, ma queste considerazioni valide non giustificano l’utilizzo “di un giornalismo scadente e guidato da interessi per propagare una falsa narrativa”. Ed è proprio questo il limite maggiore dell’articolo del Wall Street Journal, che ha abbracciato “molte teorie cospirative screditate per tessere una narrazione infondata secondo cui il più grande motore di ricerca del mondo, Google, abusa del suo potere per i suoi scopi malvagi”, realizzando un pezzo che, conclude Ruchlewicz, “appartiene alla sezione di narrativa a basso costo in aeroporto, non alla copertina di uno dei quotidiani più apprezzati del Paese”.