Intelligenza artificiale

User research nell’era dell’AI

Federica Brancale Federica Brancale 13 min di lettura

Perché i dati non bastano a capire gli utenti

Lettere che compongono la parola data su un tavolo in legno

Viviamo in un’epoca in cui conosciamo quasi tutto del comportamento degli utenti sul nostro sito. Sappiamo quanti arrivano, dove cliccano, dove smettono di scorrere, in quale punto esatto abbandonano il carrello. Eppure continuiamo a lanciare prodotti che non vengono usati, landing page che non convertono, flussi che sembrano perfetti sulla carta e si rompono nella realtà.

Il limite dei dati quantitativi è strutturale. Registrano comportamenti, non motivazioni. Sapere che il 40% degli utenti abbandona il checkout al terzo step non ti dice cosa stava cercando di fare quella persona, cosa l’ha fermata, cosa si aspettava di trovare. Senza quella comprensione, qualsiasi intervento di ottimizzazione resta un tentativo.

Il limite dei dati quantitativi nell’analisi utenti

Flusso di numeri binari in un tunnel digitale astratto

Immagina di guardare una partita di calcio solo attraverso le statistiche. Sai che la squadra ha calciato 18 volte in porta, ha avuto il 63% di possesso palla, ha percorso 112 km complessivi. Ma non sai che il portiere avversario ha parato un rigore all’89° minuto con una mossa che nessuno si aspettava. Non sai che il gol è stato annullato per un fuorigioco di 3 centimetri. Non sai nulla di quello che ha reso quella partita vera.

Con gli utenti funziona esattamente così.

Analytics e heatmap sono strumenti potentissimi, nessuno lo mette in discussione. Servono per capire dove cercare, per costruire ipotesi, per misurare l’impatto delle modifiche. Ma da soli sono incompleti per definizione, perché registrano comportamenti senza contesto. Un dato senza contesto è un’ipotesi, non una risposta.

Un utente che abbandona il checkout non ti sta dicendo nulla finché non gli chiedi cosa stava cercando di fare in quel momento. Stava cercando di capire una voce che non conosceva? Ha avuto paura di inserire l’IBAN? Si aspettava che il prodotto fosse già nel carrello quando è tornato sulla pagina? Ogni motivo richiede una soluzione diversa. E nessun dato può dirtelo.

La grande illusione del marketing data-driven degli ultimi anni è che più dati raccogliamo, meno abbiamo bisogno di parlare con le persone. È vero esattamente il contrario. Più dati abbiamo, più abbiamo bisogno di qualcuno che ci aiuti a interpretarli. E quel qualcuno è l’utente stesso.

Cosa emerge parlando con utenti reali

Cartello con scritta amplify your voice tenuto in alto all’aperto

La user research qualitativa, intesa come interviste, user test e sessioni di osservazione, non è una metodologia complessa. È una conversazione strutturata. È stare in silenzio mentre qualcuno usa il tuo prodotto e racconta ad alta voce cosa sta pensando.

Il metodo speak-aloud

Il metodo speak-aloud funziona così. Chiedi all’utente di verbalizzare ogni pensiero mentre naviga, clicca, decide. Non è naturale, all’inizio. Ma dopo pochi minuti le persone iniziano a raccontare. Dicono che non capiscono cosa vuol dire una certa parola, che si aspettavano un comportamento diverso da un pulsante, che una certa sezione li mette a disagio perché sembra chiedere qualcosa di impegnativo. Informazioni che nessuna heatmap restituirà mai.

Quanti utenti servono davvero

C’è un principio documentato da Nielsen Norman Group e confermato da decenni di ricerca sul campo: con 5 utenti rappresentativi si scopre circa l’85% dei problemi di usabilità di un’interfaccia. Con 8 si arriva quasi al 99%. Non servono campioni statisticamente significativi. Serve ascoltare le persone giuste nel modo giusto.

Questo cambia il modo in cui pensiamo alla user research. Non è un’attività riservata a grandi organizzazioni con budget dedicati e laboratori attrezzati. È qualcosa che puoi fare adesso, con le persone che conosci, in un pomeriggio. Il costo di non farlo, in termini di decisioni sbagliate e rilavorazioni, è quasi sempre superiore al costo di farlo.

Caso studio di user test su una landing page

Scritta case study su lightbox con oggetti da scrivania su sfondo rosa

Qualche tempo fa abbiamo condotto un user test su una landing page di un’azienda del settore finanziario. Il servizio era nuovo, il prodotto tecnicamente solido, la pagina graficamente curata. I dati quantitativi non mostravano segnali di allarme evidenti.

Poi abbiamo messo 8 utenti davanti a quella pagina.

Il test era semplice. Esplora la pagina, cerca di capire il servizio, dimmi qual è il passo successivo. Speak-aloud attivo, moderatore in ascolto, sessioni registrate.

Quello che è emerso in 40 minuti per persona nessuna dashboard l’avrebbe mai rilevato.

Una CTA presente ma praticamente assente

C’era una CTA strategica, un pulsante che per l’azienda rappresentava un punto chiave del flusso, che praticamente nessun utente vedeva. Non era nascosta. Era visibile. Ma il colore era identico a quello della CTA principale, e il cervello degli utenti la filtrava automaticamente come rumore visivo. Un effetto documentato nella ricerca sul banner blindness: quando due elementi hanno lo stesso peso visivo, quello secondario tende a scomparire dalla percezione. Quando mostravamo il pulsante esplicitamente, la reazione era quasi sempre la stessa. Gli utenti non capivano a cosa servisse e lo percepivano come scollegato dal percorso che stavano facendo.

Parole corrette nel posto sbagliato

C’era una terminologia tecnica, parole del settore finanziario corrette e precise dal punto di vista legale, che generava nelle persone non chiarezza ma paura. Paura di costi nascosti, paura di obblighi che non avevano capito di stare assumendo. Un utente ha detto che una certa parola lo metteva in ansia, che sembrava stesse accettando qualcosa di molto impegnativo. Quella parola non era sbagliata. Era semplicemente nel posto sbagliato, senza il contesto necessario per renderla comprensibile. Nella ricerca sul cognitive load, questo tipo di attrito si chiama extraneous load, ovvero informazione che il cervello deve processare senza che quella fatica produca comprensione.

Il flusso che si rompeva in silenzio

C’era un problema di flusso con un impatto diretto sulla conversione. Quando l’utente tornava da una pagina esterna, atterrava sempre nello stesso punto, che a volte appariva vuoto, senza il prodotto che si aspettava di trovare. La reazione era immediata e uniforme su più utenti: se devo ricercare il prodotto da capo, cambio idea. Un abbandono netto, prevedibile, completamente invisibile nei dati perché registrato come semplice uscita dalla sessione.

In totale, in un progetto di poche settimane con un campione di 8 persone, sono emerse 15 opportunità di miglioramento concrete, dalla priorità alta a quella bassa, con raccomandazioni specifiche per design, copy e sviluppo. Alcune erano quick win implementabili in poche ore. Altre richiedevano un ragionamento più profondo sul flusso. Tutte erano invisibili prima di fare il test.

I numeri dicevano che la pagina funzionava. Le persone raccontavano una storia completamente diversa.

Il valore del feedback utente nei processi di ottimizzazione

Puzzle in costruzione con la parola feedback al centro e pezzi sparsi
Ogni feedback contribuisce a ricostruire il quadro completo dell’esperienza utente. Anche le osservazioni più critiche aiutano a individuare problemi concreti e a definire le priorità di intervento.

Chi lavora su prodotti digitali da abbastanza tempo impara a riconoscere un momento preciso: quello in cui smetti di difendere quello che hai fatto e inizi ad ascoltare quello che non funziona. Non è un cambiamento di metodo. È un cambiamento di prospettiva.

Guardare qualcuno che fatica a usare qualcosa che hai costruito con cura è scomodo. Sentire che un testo riscritto dieci volte non viene capito fa venire voglia di spiegare, di contestualizzare, di difendersi. Ma quella difesa è esattamente il problema: se un utente non capisce qualcosa, non è colpa sua.

Il valore delle reazioni che non ti aspetti

Le reazioni più utili in un user test non sono quelle che confermano quello che già pensi. Sono quelle che ti costringono a fermarti. Un utente che esita su un pulsante che consideravi ovvio ti sta dicendo che la gerarchia visiva non funziona. Uno che legge tre volte lo stesso testo prima di capire ti sta dicendo che il copy carica troppo la memoria di lavoro. Uno che clicca nel posto sbagliato con sicurezza ti sta dicendo che la struttura dell’interfaccia comunica qualcosa di diverso da quello che intendevi.

Feedback negativi come strumento di prioritizzazione

Il feedback scomodo è anche il più utile per stabilire le priorità di intervento. Quando la stessa difficoltà emerge su più utenti, smette di essere un’opinione e diventa un dato. Puoi pesarla, confrontarla con altre criticità, decidere dove intervenire prima. In questo senso, ogni sessione di user test è anche un esercizio di product management: ti aiuta a capire non solo cosa non funziona, ma cosa vale la pena risolvere adesso e cosa può aspettare.

Gli utenti non sanno sempre cosa vogliono. Ma sanno benissimo cosa stanno vivendo. Ascoltarlo è il punto di partenza di qualsiasi miglioramento che duri.

Il valore della conversazione reale nella user research

Figure stilizzate con fumetti che rappresentano conversazioni tra utenti

Nel 2025 è esploso il tema dei synthetic users, profili generati dall’AI che simulano comportamenti umani per fare ricerca senza coinvolgere persone reali. L’idea è seducente: niente recruitment, niente scheduling, niente incentivi. Fai una domanda al modello e lui risponde come se fosse un utente.

Il problema è strutturale. Un modello AI non prova frustrazione. Non esita. Non usa la calcolatrice per calcolare una rata mensile perché il numero non è abbastanza visibile sulla pagina. Non ha paura di costi nascosti. Non associa una parola tecnica a un ricordo negativo maturato con un’altra azienda anni prima.

Dove l’AI è utile nella ricerca

I modelli sono addestrati su comportamenti passati e testi esistenti. Sono utili per accelerare alcune fasi della ricerca, come l’analisi di trascrizioni, l’identificazione di pattern in grandi volumi di feedback, la sintesi di interviste e il clustering tematico di risposte aperte. In queste attività riducono il tempo di analisi in modo significativo. Ma non possono sostituire il momento in cui una persona reale si siede davanti al tuo prodotto e racconta cosa sta pensando.

Il rischio dei dati simulati

Fare decisioni di design e cro su simulazioni di comportamento equivale a ottimizzare la conversione su dati falsi. Più il modello è preciso, più l’errore è pericoloso perché difficile da individuare. Le allucinazioni dell’AI non riguardano solo i fatti, riguardano anche i comportamenti umani, le emozioni, le associazioni mentali che un utente porta con sé quando arriva su una pagina. Il principio rilevante è quello che nel mondo dell’AI viene chiamato Human in the Loop, dove la macchina può aiutare, accelerare, analizzare, ma la comprensione del contesto umano resta nelle mani delle persone.

Come fare user research senza un budget dedicato

Persona che scrive user research su una superficie trasparente

La user research non è un progetto complesso riservato a chi ha un team di ricercatori e un laboratorio attrezzato. È una pratica che puoi iniziare oggi con quello che hai.

Definisci una domanda sola

Prima di reclutare chiunque, chiediti cosa vuoi capire. Non voglio capire tutto, ma una domanda specifica. Gli utenti capiscono il valore di questo servizio dalla homepage? Il flusso di checkout è chiaro? Questa CTA comunica l’azione giusta? Una domanda precisa produce un test utilizzabile. Una domanda generica produce ore di materiale difficile da analizzare.

Recluta persone che non ti conoscono

5-8 utenti rappresentativi del tuo target reale. Non i tuoi colleghi, non i tuoi amici che trovano tutto bellissimo perché ti vogliono bene. Persone che non sanno già come funziona il tuo prodotto e non hanno motivo di risparmiarti le critiche. Puoi trovarle nella tua rete professionale o su piattaforme di recruitment per ricerca, offrendo un piccolo incentivo che valga il loro tempo.

Costruisci uno scenario credibile

Non chiedere di navigare il sito e dire cosa pensano. Costruisci un contesto reale: immagina di voler fare X, parti da qui e prova a farlo. Più la situazione è concreta, più i comportamenti saranno autentici e le reazioni utili. Gli scenari astratti producono opinioni. Gli scenari reali producono comportamenti.

Osserva senza intervenire

Attiva il speak-aloud e chiedi a chi partecipa di pensare ad alta voce. Non intervenire, non suggerire, non correggere. Ogni impulso a spiegare qualcosa durante il test è la conferma che quel punto richiede un intervento di design o copy.

Analizza per frequenza, non per intensità

Raccogli i feedback su post-it, fisici o digitali, clusterizzali per tema e identifica le priorità. Quello che si ripete su più utenti è un problema reale da risolvere. Quello che emerge una volta sola è comunque un segnale da non ignorare, perché spesso anticipa un problema che i test successivi confermano.

Cinque sessioni, un pomeriggio di analisi, un documento di raccomandazioni. Non serve altro per iniziare.

Smetti di ottimizzare prima di capire

Post-it colorati con scritte SEO e strategia su una scrivania

Siamo in un momento in cui la tentazione di delegare tutto all’AI è forte. È più veloce, più economica, più scalabile. E per molte cose funziona.

Ma c’è una cosa che l’AI non può fare, ovvero sedersi di fronte a te, usare il tuo prodotto e raccontarti con parole sue cosa sta vivendo. Il momento in cui qualcuno ti dice che una certa sezione lo mette a disagio, o che si aspettava un comportamento diverso da un elemento dell’interfaccia, porta con sé il contesto che nessun dato può catturare.

In un mondo che produce dati a velocità esponenziale, la capacità di ascoltare le persone è diventata un vantaggio competitivo reale. Non è un approccio romantico. È il modo più diretto che esiste per prendere decisioni di prodotto e comunicazione che funzionano, non nei modelli ma nel mondo reale.

Ogni feedback è un regalo. Soprattutto quello scomodo.

La prossima volta che stai per ottimizzare qualcosa basandoti solo sui numeri, chiediti: ho parlato con qualcuno? Ho sentito la sua voce? Ho visto dove si fermava? Se la risposta è no, hai ancora il tuo contributo più prezioso da raccogliere.

FAQ

Quante persone servono per fare un user test valido?

Nielsen Norman Group indica che con 5 utenti rappresentativi si identifica circa l’85% dei problemi di usabilità di un’interfaccia. Con 8 si arriva vicino al 99%. Non serve un campione statisticamente significativo come in una ricerca quantitativa. Serve selezionare persone che corrispondano al profilo reale del tuo utente, non colleghi o conoscenti che già conoscono il prodotto.

Qual è la differenza tra user research qualitativa e quantitativa?

La ricerca quantitativa, intesa come analytics, A/B test e dati di traffico, ti dice cosa succede e con quale frequenza. La user research qualitativa, intesa come interviste, user test e sessioni di osservazione, ti dice perché succede e cosa prova l’utente mentre lo fa. Le due approcci non si escludono: i dati quantitativi aiutano a capire dove cercare, la ricerca qualitativa aiuta a capire cosa fare.

Posso fare user research senza un budget dedicato?

Sì. Bastano 5-8 persone disponibili a partecipare a una sessione di 30-45 minuti, uno scenario realistico da assegnare, e un moderatore che osservi senza intervenire. Non servono laboratori attrezzati né software specializzati. Strumenti come Lookback, Maze o anche una semplice videochiamata con la condivisione dello schermo sono sufficienti per raccogliere osservazioni utili.

I synthetic users generati dall’AI possono sostituire i test con persone reali?

No. I synthetic users sono utili per esplorare ipotesi in fase preliminare o per analizzare grandi volumi di feedback testuali. Ma non replicano la variabilità emotiva e contestuale di una persona reale: la frustrazione, l’esitazione, le associazioni mentali legate a esperienze pregresse. Le decisioni di design e cro basate esclusivamente su simulazioni di comportamento rischiano di ottimizzare nella direzione sbagliata.

Con quale frequenza dovrei fare user research?

Non esiste una cadenza universale, ma una buona pratica è condurre sessioni di user test ogni volta che si introduce un cambiamento significativo al flusso, al copy o alla struttura dell’interfaccia. Per prodotti in fase di sviluppo attivo, anche cicli brevi ogni 4-6 settimane producono informazioni utili. L’obiettivo non è fare ricerca una volta sola, ma costruire una pratica continuativa di ascolto.

Come si analizzano i risultati di un user test?

Il metodo più diffuso è l’affinity map: si raccolgono tutti i comportamenti, le citazioni e le osservazioni su post-it, si raggruppano per tema, si identificano i pattern ricorrenti. Quello che emerge su più utenti è un problema reale. Quello che emerge una volta sola è comunque un segnale da tenere traccia. L’analisi produce una lista di opportunità di miglioramento con una stima della priorità, non un elenco di opinioni da implementare tutte.

 

 

 

 

 

 

Articoli precedenti