Test A/B: cos’è e come usarlo per migliorare il sito
È uno dei sistemi più utilizzati per verificare l’efficacia degli interventi e dei cambiamenti apportati sul sito, utile soprattutto perché consente di scoprire l’effettivo gradimento degli utenti posti dinanzi a due opzioni differenti per stile, grafica e contenuti. Scopriamo qualcosa in più sul Test A/B e impariamo a impostarlo nel modo migliore per il nostro sito, imparando anche come ridurre al minimo l’impatto del test A/B nella Ricerca Google seguendo i suggerimenti ufficiali del gruppo statunitense.
Che cos’è un Test A/B
Noto anche come Test dei cesti o split-run testing, il test A/B è un esperimento controllato con due varianti – denominate appunto A e B – che prevede l’impostazione di due versioni della stessa pagina con una singola modifica, così da avere dati concreti su quale superi l’altra nel gradimento e nelle azioni degli utenti.
In sintesi, consente di confrontare due versioni di una pagina diverse per una singola variabile così da testare la risposta del soggetto (un campione dell’audience tipo) rispetto alla variabile A o B e determinare in questo modo quale risulti la più efficace.
Lo scopo del test
Molto usato nel web analytics – e l’abbiamo già citata come risorsa strategica per creare una landing page perfetta – questo strumento rientra tra i test di verifica d’ipotesi o “test di ipotesi a 2 campioni” nel campo della statistica.
L’obiettivo dell’attività è molto semplice quanto strategico: identificare i cambiamenti – anche apparentemente piccoli – all’interno di una pagina web che incrementano o massimizzano il risultato di un interesse, come ad esempio il click-through rate per un banner pubblicitario, e per questo è decisivo nel Web design e nello studio della user experience.
Sfruttare il test per il CRO
Se implementato in modo corretto, il test ci permette di sperimentare singoli elementi del sito che intendiamo variare e determinare se sono efficaci per il nostro pubblico: la funzione più pratica e diffusa è l’analisi delle call to action, elementi che devono essere realizzati in maniera più che studiata per produrre risultati.
La mancata efficacia delle call to action può dipendere da varie ragioni, tra cui i cambiamenti nel comportamento degli utenti, spostamenti nell’audience o il modo generale in cui gli utenti interagiscono con il nostro sito Web.
Fare piccole modifiche e testarle è un processo critico, che rientra nelle operazioni di CRO (conversion rate optimization, ottimizzazione del tasso di conversione) e implica l’uso di test scientificamente validi sugli elementi di interazione dell’utente sul nostro sito, con l’obiettivo di ottenere un aumento significativo delle prestazioni al termine di tutte le prove.
Non affidarsi al caso per le modifiche al sito
È abbastanza scontato dire che i cambiamenti sul sito non devono essere fatti in modo casuale, intervenendo in modo non strategico sui singoli elementi e sperando per il meglio. Così facendo riduciamo le possibilità di avere risultati concreti e misurabili, perché non sappiamo a cosa attribuire i possibili effetti riscontrati.
Soprattutto per siti grandi in settori molto complessi, non è possibile trarre conclusioni opportune su cosa cambiare e cosa non cambiare all’interno delle pagine se non conosciamo il modo in cui gli utenti target interagiscono con il sito Web, ed è qui che entra in gioco il test A/B.
Comprendere prima gli obiettivi
Le conversioni non avvengono e basta e per ottenere risultati reali – ad esempio, persone vere che acquistano il nostro servizio o prodotto – è necessario un significativo investimento di tempo, per studiare il rendimento degli utenti sul sito e apportare modifiche apposite per stimolare le loro azioni.
La brutale realtà del marketing digitale è questa, ci dice Brian Harnish da Search Engine Journal: dobbiamo “sapere cosa dicono i dati relativi alle modifiche prima di poter apportare le modifiche”. L’intera ragion d’essere di tali test è permetterci di avere dei risultati concreti sulle modifiche prima di apportarle, consolidare le ipotesi sulle ottimizzazioni in un set di dati reali.
Se un super-esperto di marketing saprà quali modifiche apportare in base alla propria esperienza e quindi potrà ridurre il tempo necessario per i test e le analisi che migliorano le prestazioni di un sito Web, un marketer meno esperto farà test casuali che non sempre raggiungono il risultato desiderato.
Un esempio concreto: il test per migliorare le campagne di affiliazione
L’articolo fornisce anche un esempio per capire il funzionamento dello split test, analizzando uno dei modi “per guadagnare soldi su Internet oggi”, ovvero l’affiliate marketing, che si può fare offrendo “ai clienti un prodotto o un servizio gratuito fornito come affiliato” che fa guadagnare una commissione per ogni vendita.
Se otteniamo sufficienti informazioni sui nostri clienti possiamo costruire una relazione con loro, perché realizziamo un rapporto di fiducia; questo processo di studio ci permette di imparare anche molto sul modo in cui usano il sito web e di implementare modifiche che possono aiutare gli utenti a raggiungere ciò che stanno cercando di ottenere, ovvero acquistare il nostro servizio o prodotto.
Test A/B, gli elementi da verificare
Harnish segnala anche quali sono gli elementi che possono avere il massimo potenziale di ritorno sul ROI durante il test, che includono tra gli altri:
- Tutti le CTA del sito.
- Il colore di sfondo complessivo del sito.
- I colori degli elementi dell’intera pagina.
- La fotografia delle pagine.
- Contenuti e loro struttura.
- Qualsiasi elemento sulla pagina che richiede l’interazione dell’utente.
Gli elementi del sito sono adattamenti critici che possono comportare aumenti significativi delle prestazioni: ad esempio, se pensiamo che un pulsante di conversione non funzioni correttamente, possiamo sottoporre una variante (colore diverso, o testo modificato) a un campione degli utenti reali del sito, che possono fornirci una prova fattuale sull’efficacia della nuova soluzione.
Con il test A/B possiamo verificare le prestazioni di un elemento alla volta, variandolo e paragonandolo a una versione alternativa che contiene modifiche studiate sul comportamento ipotizzato degli utenti.
Un approccio diverso agli interventi sul sito
Il consiglio che arriva dall’esperto è affrontare i test A/B con una mentalità aperta, senza pregiudizi sugli elementi da sottoporre a verifica e sugli eventuali risultati, perché in questo modo possiamo scoprire davvero ciò che non conosciamo.
Ad esempio, possiamo eseguire un test su come il sito mostra i contatti (come il numero di telefono), utilizzando elementi distinti all’interno dello stesso segmento del campione di data audience per determinare quali ottengono i risultati migliori. Oppure possiamo eseguire un test del contenuto, per assicurarci in maniera rapida di non perdere tempo e sforzi su contenuti che semplicemente non funzioneranno.
Questo approccio ci permette di avere una dimostrazione reale ed empirica di quanto bene funzioni il sito in ogni singolo elemento, e in alcuni casi possiamo ottenere risultati davvero eccellenti sulle conversioni finali semplicemente implementando una variazione che migliora qualcosa che prima non funzionava.
Come creare un test A/B
La creazione di un test A / B di successo comporta una ricerca su più fronti, a cominciare dalla dimensione e lo stato attuale del sito web
In molti casi, se abbiamo siti piccoli o con un pubblico ristretto, non è necessario fare questo tipo di esperimenti, ma anche se già conosciamo le best practices più diffuse per il nostro settore tale test può comunque segnalare quali sono le modifiche utili da apportare. Piuttosto che lanciarsi in questa operazione, un sito piccolo avrebbe migliori risultati (e con minor sforzo) intervistando i propri clienti, scoprendo i punti deboli e lavorando sull’ottimizzazione del sito in base al feedback ricevuti.
Diverso è il caso dei siti di grandi dimensioni (oltre 10.000 visitatori al mese e con centinaia di pagine, dice l’articolo), perché eseguire i test A/B può aiutarci a scoprire quale versione darà la migliore conversione tra quelle del campione. Tale attività diventa indispensabile per siti ancora più grandi, dove anche un solo, singolo elemento può determinare un grande ritorno in conversioni.
Ciò che dobbiamo fare è stabilire una linea di base generale del traffico del sito, che ci permette di proseguire con la valutazione degli elementi del sito Web e di ciò che dobbiamo cambiare per eseguire un test efficace.
Decidere quali elementi testare
Siamo arrivati a una fase decisiva, ovvero decidere quali elementi variare e sottoporre al test, un passaggio che richiede a sua volta prove (e spesso) errori per ottenere il risultato giusto.
Ad esempio, se riteniamo che per il nostro settore una CTA di colore rosso sia vista meglio rispetto al blu che stiamo usando, cambieremo il colore dei pulsanti durante il test A/B e scopriremo dalle reazioni degli utenti quale converte meglio realmente. L’utilità del test A/B è che permette di scoprire a cosa rispondono realmente i nostri utenti, piuttosto che modificare il sito in base a semplici ipotesi.
Questa è una distinzione importante da fare, perché spesso il lavoro di ottimizzazione del sito si basa su supposizioni (per quanto realistiche o studiate), e a meno di non aver parlato direttamente con i clienti non sappiamo a cosa stanno rispondendo. Invece il test A/B trasforma la teoria in uno strumento di alta precisione: dopo un test riuscito, sapremo cosa funziona meglio per i nostri utenti.
I test di usabilità
Il test utente è la fase più essenziale del test di usabilità, che rappresenta a sua volta uno strumento cruciale nella valutazione dell’usabilità del sito. In realtà, lo studio sugli utenti e sull’audience dovrebbe essere sempre inserito in un processo continuo, anziché essere condotto a casaccio.
Lo scopo di questo test è comprendere in modo più sistematico come le persone comunicano con il nostro sito, e il test di usabilità ci permette di riconoscere se ci sono eventuali difficoltà riscontrate nel funnel di conversione degli utenti. Il secondo step è avviare una procedura di screening per l’analisi degli utenti, che possono avere molti obiettivi o un solo obiettivo.
Ad esempio, lo screening degli utenti può essere progettato per:
- Scoprire come gli utenti eseguono realmente la scansione della pagina.
- Valutare cosa sta realmente attirando la loro attenzione.
- Risolvere eventuali carenze nei contenuti esistenti.
- Scoprire quali sono i punti deboli dei pulsanti e come correggerli.
Esistono vari strumenti che consentono di eseguire i test A/B e aiutano a definire i parametri che potremmo decidere di variare.
Gli esempi di test A/B sul contenuto
Come abbiamo detto in precedenza, i contenuti sono uno dei possibili oggetto di test, soprattutto se non siamo sicuri su quale sia la tipologia e la forma che possa aver maggior presa sul nostro pubblico.
Ad esempio, se i lettori sono abituati a un testo più lungo e sono propensi a un’interazione quando lo trovano – come nel caso di molti studiosi e persone in settori accademici – il nostro obiettivo è realizzare un testo che appaia come un saggio. Se però l’audience è composta da lettori più informali, sarebbe meglio usare righe di testo e paragrafi più brevi.
E quindi, possiamo fare un test realizzando due pagine – una con contenuto lungo e formale, l’altra con testo breve e più accattivante – per scoprire quale offra migliori risultati.
Oppure, possiamo studiare l’effetto di modifiche sulla dimensione del font, sul colore o sulla spaziatura, per scoprire se tali fattori influenzano la leggibilità ed, eventualmente, anche la comprensione e il gradimento del contenuto.
Esempi di split test sui pulsanti
Le prove possono riguardare anche dettagli all’apparenza minori, come le dimensioni del pulsante della CTA: se gli utenti che cliccano sul pulsante sono minori rispetto ai desideri, o se le persone compilano il modulo inserendo informazioni sbagliate, è possibile intervenire per capire dove sia il problema e testare elementi distinti del form, incluso il pulsante.
Ad esempio, possiamo migliorare il testo scritto del modulo per ottenere conversioni migliori e più accurate; molti esperti di questo processo raccomandano di fornire agli utenti una scadenza per una richiesta, con un messaggio che segnala all’utente “Risponderemo al tuo messaggio entro 24 – 48 ore”, un intervento noto come “impostazione delle aspettative dell’utente”.
Una piccola soluzione di questo tipo sviluppa anche la fiducia, perché dice alle persone che riceveranno una risposta garantita (ovviamente da rispettare) senza temere che la loro richiesta finisca in un dimenticatoio.
Variare la comunicazione del brand
Il modo in cui comunichiamo è importante tanto quanto il contenuto che viene interpretato dal pubblico: come ricorda Harnish, non “puoi sapere esattamente a cosa risponderà il tuo pubblico senza testare le variabili live” e non è possibile sapere in anticipo ““””cosa susciterà la reazione che desideri”.
Ecco perché è importante “testare variabili in tempo reale e variazioni di queste variabili”.
Uno dei test più importanti comporta la modifica del messaggio, in particolare di titoli, frasi nei contenuti, tagline e formulazione delle call to action, perché la comunicazione potrebbe non essere efficace come vogliamo (e pensiamo).
Verificare i risultati dei test A/B
Gli split test possono rivelare cose sui nostri utenti che potremmo non aver mai sospettato e sono, come detto, uno strumento molto utile per capire se, come e quando apportare modifiche al sito che possano dare miglioramenti concreti (anche in termini di redditività).
La chiave per il successo di tali test è creare una solida metodologia: dopo aver pianificato e messo a punto gli elementi finali, dobbiamo eseguirli e, soprattutto, verificare nel tempo dato la risposta degli utenti. Solo così possiamo essere (più) sicuri di apportare interventi che funzioneranno e daranno i risultati sperati.
I test A/B e la SEO, i consigli di Google
In conclusione, è utile fare attenzione ai possibili effetti negativi che la conduzione di un test delle variazioni nel contenuto della pagina o negli URL delle pagine possa provocare sul rendimento della Ricerca Google, ed è proprio una guida ufficiale di Google – comparsa online nel settembre 2022 – a metterci in guardia contro questi problemi e a suggerire le soluzioni per minimizzare i rischi degli A/B test sulla SEO.
Il documento chiarisce innanzitutto cosa si intende per test dei siti, ovvero “quando provi diverse versioni del tuo sito Web (o di una parte del tuo sito Web) e raccogli dati su come gli utenti reagiscono a ciascuna versione”. In questa definizione rientrano, pertanto, due tipologie di test:
- Il test A/B che, come detto, consiste nel testare due (o più) variazioni di una modifica. Ad esempio, possiamo provare diversi tipi di carattere su un pulsante per vedere se così aumentano i clic sui pulsanti.
- Il test multivariato, che invece prevede di testare più di un tipo di modifica alla volta, cercando l’impatto di ciascuna modifica e le potenziali sinergie tra le modifiche. Ad esempio, potremmo provare diversi tipi di carattere per un pulsante, ma anche provare a cambiare (e non modificare) il carattere del resto della pagina allo stesso tempo: il nuovo font è più facile da leggere e quindi dovrebbe essere usato ovunque, oppure l’uso di un font diverso sul pulsante rispetto al resto della pagina aiuta ad attirare l’attenzione?
Google ci ricorda che possiamo utilizzare un software per confrontare il comportamento con diverse varianti delle pagine (parti di una pagina, pagine intere o interi flussi multipagina) e monitorare quale versione è più efficace con i nostri utenti. Inoltre, possiamo fare test creando più versioni di una pagina, ognuna con il proprio URL: quando gli utenti tentano di accedere all’URL originale, ne reindirizziamo alcuni a ognuna delle variazioni URL e quindi confrontiamo il comportamento degli utenti per vedere quale pagina sia più efficace.
Ancora, possiamo eseguire test senza modificare l’URL inserendo variazioni dinamicamente nella pagina, usando anche JavaScript per decidere quale variante visualizzare.
Test sui siti e Google, gli aspetti da considerare
A seconda dei tipi di contenuti che stiamo testando, dice la guida, potrebbe non essere nemmeno “molto importante se Google esegua la scansione o l’indicizzazione di alcune delle variazioni dei contenuti nel corso dell’attività di testing”. Piccole modifiche, come le dimensioni, il colore o la posizione di un pulsante o di un’immagine, o il testo della call to action possono avere un impatto sorprendente sulle interazioni degli utenti con la pagina, ma “spesso hanno un impatto minimo o nullo sullo snippet o sul posizionamento dei risultati di ricerca di quella pagina”.
Inoltre, se Googlebot esegue la scansione del sito “abbastanza spesso da rilevare e indicizzare l’esperimento”, probabilmente indicizzerà gli eventuali aggiornamenti che apportiamo in modo piuttosto rapido a conclusione del test.
Le best practices di Google per il testing dei siti
Il documento entra anche in dettagli più tecnici e pratici, fornendo una serie di best practices da seguire per evitare effetti negativi sul comportamento del sito nella Ricerca Google durante il test delle variazioni sul sito.
- Non fare cloaking delle pagine di prova
Non mostrare un insieme di URL a Googlebot e un insieme diverso agli esseri umani, e quindi “non fare Cloaking”, una tattica che viola le Istruzioni di Google, indipendentemente dal fatto che stiamo eseguendo un test o meno. Il rischio di queste violazioni è “far retrocedere o rimuovere il sito dai risultati di ricerca di Google, probabilmente non il risultato desiderato del test”.
Il cloaking conta sia se lo eseguiamo tramite server logic che attraverso robots.txt o qualsiasi altro metodo, e in alternativa Google suggerisce di usare link o reindirizzamenti come descritto di seguito.
Se usiamo i cookie per controllare il test, dobbiamo tener presente che Googlebot generalmente non supporta i cookie: quindi, vedrà solo la versione del contenuto accessibile agli utenti con browser che non accettano i cookie.
- Usare link rel=”canonical”
Se stiamo facendo un test con più URL, possiamo utilizzare l’attributo rel=”canonical” su tutti gli URL alternativi per indicare che l’URL originale è la versione preferita. Google consiglia di utilizzare rel=”canonical” piuttosto che un meta tag noindex perché “corrisponde più strettamente alle intenzioni in questa situazione”. Ad esempio, se stiamo testando varianti della tua home page, non vogliamo “che i motori di ricerca non indicizzino la home page, ma solo che capiscano che tutti gli URL di test sono duplicati o variazioni simili all’URL originale e dovrebbero essere raggruppati insieme, con l’URL originale come canonico”. L’uso di noindex anziché del canonical in una situazione del genere a volte potrebbe avere effetti negativi inaspettati.
- Usare redirect 302 e non redirect 301
Se stiamo eseguendo un test che reindirizza gli utenti dall’URL originale a un URL variante, Google ci invita a usare un redirect 302 (temporaneo) e non un redirect 301 (permanente). Questo dice ai motori di ricerca che il reindirizzamento è temporaneo (sarà attivo solo finché l’esperimento è in corso) e che dovrebbero mantenere l’URL originale nel loro indice, piuttosto che sostituirlo con l’URL obiettivo del reindirizzamento (il test pagina). Vanno bene anche i reindirizzamenti basati su JavaScript.
- Lanciare l’esperimento solo per il tempo necessario
La quantità di tempo necessaria per un test affidabile varia in base a fattori come i tassi di conversione e la quantità di traffico che riceve il sito web, e un buon strumento di test ci dice quando abbiamo raccolto abbastanza dati per trarre una conclusione affidabile. Una volta terminato il test, dobbiamo aggiornare il sito con le varianti di contenuto desiderate e rimuovere il prima possibile tutti gli elementi del test, come URL alternativi o script di test e markup. Se Google scopre “un sito che esegue un esperimento per un tempo inutilmente lungo” potrebbe interpretarlo come un tentativo di ingannare i motori di ricerca e agire di conseguenza, soprattutto se il sito propone una variante di contenuto a un’ampia percentuale dei suoi utenti.