Citazioni sbagliate, cattive interpretazioni, interviste non utilizzate perché poco funzionali alla propria tesi: l’articolo del Wall Street Journal che prometteva di svelare le manipolazioni e le interferenze di Google sul sistema di ricerca ha in realtà “compattato” la comunità SEO, che lo ha giudicato tutt’altro che credibile e affidabile perché basato su “voci” e non su fatti concreti.

Wall Street Journal contro Google, il caso continua

Ne avevamo già parlato nella nostra analisi di ieri, ma in queste ore Barry Schwartz ha pubblicato su Search Engine Journal e su Seroundtable due ulteriori approfondimenti che “smontano” le teorie dei giornalisti del Wall Street Journal, rivelando (in questo caso per davvero) che alla base del pezzo c’è una posizione di attacco contro Google e, probabilmente, una scarsa conoscenza dell’argomento trattato, ovvero il funzionamento del motore di ricerca.

La comunità SEO difende Google

“All’inizio, leggendo il titolo di questa notizia esplosiva, pensavo che forse il Wall Street Journal avesse scoperto qualcosa”, spiega l’editor che spesso citiamo su queste pagine, per poi raccontare il suo crescente senso di incredulità. Non però suscitata da qualcosa che Google avrebbe fatto, ma “da come il Wall Street Journal potesse pubblicare una storia così feroce senza aver assolutamente nulla per sostenere la sua tesi“.

I commenti dei SEO e di chi conosce come funziona Google

A supporto delle considerazioni di Schwartz sono giunti numerosi attestati da parte di esponenti della comunità SEO; ad esempio Bill Slawski ha commentato su Twitter che “Barry ha fatto un grande lavoro usando la sua competenza per mettere le fondamenta, cosa che il WSJ non è riuscito a fare per nulla”, mentre Glenn Gabe ha detto che “Barry ha fatto un lavoro incredibile, smontando l’articolo imperfetto del WSJ su Google: è quasi come se Barry avesse pubblicato l’articolo che stavano cercando di scrivere”.

Non è stato leggero neppure Eric Enge (uno degli autori del volume The Art of SEO, che resta ancora oggi un pilastro del settore), che nota come la storia sia molto di parte e contenga molti riferimenti a non meglio specificate “persone che hanno familiarità con la materia”, espressione che “indica che non stiamo parlando di Googler”. Inoltre, “già sapevamo che Google blocca i siti di spamming e ha revisori umani, e che i featured snippet seguono un algoritmo diverso”; per quanto riguarda il “dare una spinta ai principali siti web ….. intendi dire che l’algoritmo posiziona meglio i siti che la gente vuole? Non sto dicendo che Google è Madre Teresa, ma questo articolo non tratta la storia in modo ragionevole secondo una fonte che ha familiarità con la materia”, ovvero Enge stesso.

Anche l’account Twitter di Screaming Frog si è aggiunto a questa serie di critiche all’articolo del Wall Street Journal, scrivendo che “la Ricerca è complicata; il WSJ sembra aver decido di guardare questa complessità attraverso una lente cospiratoria”. Concetto espresso ancora più chiaramente da un commento all’articolo, in cui si legge che “il pezzo serve solo a fornire un’arma alla macchina della propaganda conservatrice per attaccare il liberal Google”.

Un pezzo guidato da una presa di posizione chiara

E Rand Fishkin, che pure in passato è stato parecchio critico contro il motore di ricerca (ricordiamo ad esempio nei mesi passati lo scambio di tweet in occasione della polemica sul “Google CTR“), in questo caso è intervenuto a sostegno della compagnia di Mountain View: “Purtroppo, i giornalisti del WSJ hanno cercato di incastrare una narrazione su fatti che non si adattano, piuttosto che lasciare che le scoperte guidassero il pezzo”, dice a Search Engine Journal il fondatore di Sparktoro.

Che poi aggiunge: “ci sono sacco di allusioni speculative e non dimostrate su come funzionano le blacklist di Google, sulle nefaste motivazioni alla base delle sue decisioni e nessuna valutazione statistica o significativa sul fatto che le decisioni di Google siano buone o cattive per aziende o utenti”. Per Fishkin “la cosa più frustrante è stata che la rimozione da parte di Google di alcuni siti Web che promuovono la teoria della cospirazione – e, francamente, cattivi in modo imbarazzante – da Google News sia stata usata come esempio per colpire Google anziché ammettere che ha fatto la cosa giusta”.

Sono certo, prosegue con un pizzico di sarcasmo e una critica neppure troppo velata, “che i giornalisti del WSJ non prenderebbero *mai* come verità di fatto le pazze stronzate pubblicate su quei siti alt-right e di suprematismo bianco”, ma ciò nonostante “stroncano Google per averli esclusi dai risultati delle notizie”. Questi passaggi hanno “davvero minato la credibilità e l’affidabilità di tutto il resto del pezzo”, rattristando Fishkin che pure aveva trovato “una serie di elementi davvero interessanti che avrebbero meritato ulteriori esplorazioni.

Barry Schwartz smonta le tesi del Wall Street Journal

E dunque, andiamo a vedere cosa ha scoperto Barry Schwartz analizzando l’indagine giornalistica e il modo in cui è stata eseguita e pubblicata: per lui, la parte peggiore è che nel pezzo sono citate persone che hanno affermato che le loro parole sono state riportate male o fraintese, o entrambe le cose, mentre altre interviste non sono state usate effettivamente perché non utili alla “teoria” che il giornale voleva portare avanti.

Interviste non riportate

Un esempio concreto è Marie Haynes, che ha pubblicato un tweet per raccontare come avesse rilasciato delle dichiarazioni ai giornalisti del WSJ, che sembravano però “orientati a dimostrare che Google stava inserendo manualmente grandi marchi in cima ai risultati di ricerca”. L’esperta SEO ha però dimostrato che nell’esempio fornito come prova “il risultato organico top aveva centinaia di buoni collegamenti”, provocando una “delusione” nei giornalisti, che poi non hanno inserito il contributo nella versione finale.

Citazioni sbagliate

Il citato Glenn Gabe, poi, ha letto nel pezzo una dichiarazione che non ha mai rilasciato, in cui l’indecifrabile sistema di algoritmi come “black magic“: un’affermazione ridicola, ha spiegato l’esperto SEO, che racconta invece di aver detto che “l’algoritmo di ranking di ricerca di Google è estremamente complesso e sofisticato; spesso è visto come una scatola nera da molti proprietari di aziende e può essere incredibilmente difficile capire perché alcuni siti si posizionano bene e altri no”.

Parole estremamente differenti, dove ricorre l’espressione black box che (oltre a essere molto frequente nella nostra attività) non ha alcun riferimento alla magia, e soprattutto a quella nera! Alla richiesta di correggere la citazione, Gabe ha inizialmente ricevuto risposta positiva, ma poi gli è stato comunicato che l’editore ha rifiutato di modificare la parte dell’articolo.

Il WSJ persegue il suo scopo contro Google

Lo stesso Barry Schwartz rivela di aver “parlato di questo argomento con alcuni di questi reporter del Wall Street Journal sia a marzo che ad aprile, ed era già chiaro allora che avevano poca conoscenza di come funziona la ricerca“. Mancava, a suo dire, “anche una comprensione di base della differenza tra ordinamento organico (i risultati di ricerca gratuiti) e ordinamento a pagamento (gli annunci nei risultati di ricerca)”. Inoltre, “sembrava che avessero un obiettivo: inventare una storia sensazionale su come Google stia abusando del suo potere e della sua responsabilità per il proprio guadagno“.

E quindi, “Google non è certamente perfetto, ma quasi tutto nel rapporto del Wall Street Journal non è corretto”, sostiene Schwartz, che affronta punto per punto gli aspetti critici e controversi di quello che avrebbe dovuto essere uno scoop sensazionale contro il motore di ricerca e prova a smontare le varie tesi su cui si fonda l’attacco.

I limiti dell’articolo del giornale americano

Oltre ai citati casi di interviste manipolate, affermazioni ottenute “off the records” e usate quindi in maniera poco deontologica o di pezzi scartati perché non in linea con l’obiettivo, anche la metodologia di analisi dei giornalisti appare molto approssimativa. Per arrivare alle conclusioni sull’interferenza di Google sui risultati hanno studiato “17 parole e frasi che coprivano una serie di questioni politiche e candidati, frasi culturali e nomi nelle notizie … durante [un] ciclo di 17 giorni”, campione e periodo davvero troppo scarsi per essere realmente rappresentativi.

Questo approfondimento dimostra anche come ci sia poca familiarità sul funzionamento delle varie feature delle SERP: lo dimostra ad esempio il fatto che il giornale mette insieme “suggerimenti di completamento automatico, knowledge panel e featured snippet“, che invece seguono criteri (e algoritmi) diversi e specifici, che Google ha documentato in maniera (abbastanza) trasparente e chiara nel corso degli anni. In questo caso, il team di ingegneri di Mountain View lavora per evitare che queste funzionalità possano offrire come risposte risultati che violino le policies rispetto a contenuti sessualmente espliciti, violenti, pericolosi o che, semplicemente, siano falsi e sbagliati.

Molte voci, pochi fatti e prove

Simile la questione relativa alla presunta blacklist, un argomento spesso usato nelle tesi cospiratorie e negli attacchi contro Google, ma che in realtà non è stato mai dimostrato; anche il WSJ non fornisce prove concrete, perché nel pezzo si fa riferimento soltanto a “fonti anonime” senza ulteriori dettagli, un appiglio abbastanza labile secondo Barry Schwartz. Anche l’ultima tesi – Google privilegia i siti di grandi compagnie e i risultati subiscono un’influenza esterna – sembra basata più su voci e dicerie che su fatti sostanziali.

In definitiva, l’articolo su SEJ ricorda che Google mira a garantire nei risultati di ricerca organici compaiano risultati di ricerca più pertinenti e utili, sottolineando come gli algoritmi di classificazione delle ricerche non possano essere resi “open source” a causa di motivi di concorrenza e di inevitabile manipolazione.

Un meme su Google

Le critiche vere a Google

Quindi, ci sono sicuramente critiche legittime e classiche da muovere alla ricerca di Google, e Schwartz ne elenca alcune: i vari cambiamenti che apportati alle SERP hanno reso più difficile ottenere una visibilità organica; potrebbe servire maggior trasparenza su alcuni fattori di ranking; promuove fortemente i propri prodotti e servizi nei risultati di ricerca; ha contribuito a garantire il dominio della ricerca mobile tramite Android. Motivi che d’altronde sono stati anche oggetto di indagini e multe per violazioni dell’antitrust nell’UE e controlli normativi negli Stati Uniti.

Ma il pezzo del WSJ sembra interpretare tutto “attraverso una lente anti-big tech” che distorce la realtà e produce, in definitiva, un articolo che è “un pezzo imbarazzante di giornalismo e un’occasione persa che ingiustamente colora un occhio nero su Google Search e sulla comunità SEO”, conclude Barry Schwartz.