L’idea che gli LLM come soggetti di ricerca possano sostituire esseri umani in studi di psicologia, marketing, economia e cybersecurity non è più una provocazione da conferenza TED ma un fatto sperimentale documentato. Il lavoro pubblicato su IT Professional dell’IEEE nel 2025 lo dice senza troppi giri di parole: gli LLM non solo imitano il linguaggio umano, ma replicano bias cognitivi profondi, incluse quelle piccole miserie psicologiche che ci rendono riconoscibili come specie. Una fra tutte, la superiorità illusoria, quell’istinto irresistibile a considerarci più bravi della media, anche quando la media siamo esattamente noi.
Qui entra in gioco la keyword che farà discutere per anni: LLM come soggetti di ricerca. Non come strumenti di supporto, non come assistenti alla raccolta dati, ma come partecipanti attivi, silicon-based, a studi che fino a ieri richiedevano comitati etici, incentivi economici, reclutamento estenuante e trascrizioni notturne. La ricerca mostra che le cosiddette silicon personas, costruite a partire da curriculum, interviste e tracce pubbliche, manifestano la stessa tendenza umana a sopravvalutarsi. Anche le simulazioni completamente artificiali, prive di un referente umano reale, cadono nello stesso tranello cognitivo. Se non fosse documentato con metodo Delphi e analisi comparativa, sembrerebbe una battuta da bar frequentato da data scientist.
Il punto interessante non è che le macchine sbagliano come noi. Il punto inquietante è che lo fanno in modo coerente, riproducibile e leggermente più sobrio. Gli LLM mostrano una versione attenuata della nostra arroganza naturale. Come se avessero studiato l’essere umano e avessero deciso di correggerlo di qualche punto percentuale. Un dettaglio che, letto con occhio da CEO e non da filosofo, apre una domanda molto concreta: se un modello linguistico è meno vittima dei nostri bias, è ancora una simulazione o sta diventando una baseline alternativa per la ricerca comportamentale?
La sostituzione dei soggetti umani con LLM nella ricerca scientifica non è una questione accademica astratta. È una questione di costi, tempi e potere. Oggi un progetto di ricerca serio brucia mesi solo per superare la fase di avvio. Domani potrebbe bastare un prompt ben scritto. Nessun dropout, nessuna risposta distratta compilata su uno smartphone in metropolitana, nessuna distorsione dovuta alla voglia di finire in fretta per incassare il voucher. Gli LLM come soggetti di ricerca promettono campioni enormi, replicabilità quasi ossessiva e una velocità che rende obsoleto il concetto stesso di survey tradizionale.
C’è un dettaglio che molti fingono di non vedere. Gli stessi studi citano che sempre più partecipanti umani usano LLM per rispondere ai questionari. Una situazione grottesca, degna di una commedia nera: il ricercatore crede di intervistare un essere umano, ma in realtà sta parlando con una macchina che imita un umano che imita una macchina. A quel punto la domanda non è più se sia etico interrogare direttamente un LLM, ma perché non lo si faccia apertamente, dichiarandolo e progettando la ricerca di conseguenza.
Nel campo della cybersecurity, usato come banco di prova, il risultato è quasi ironico. Chief Information Security Officer umani, loro avatar digitali e simulazioni completamente artificiali mostrano lo stesso schema di eccesso di fiducia. Tutti convinti di essere più preparati della media contro attacchi DDoS, ransomware, phishing e insider threat. Una rassicurante dimostrazione che l’illusione di controllo è democratica e non discrimina tra carbonio e silicio. La differenza è che il modello linguistico, a parità di contesto, è più prevedibile nella sua imprevedibilità. Una frase che sembra un ossimoro ma che descrive perfettamente il cuore del problema.
Qui emergono le keyword semantiche che Google SGE adorerà: bias cognitivi negli LLM, ricerca comportamentale con intelligenza artificiale, sostituzione dei soggetti umani. Non sono slogan, sono nodi concettuali. Se accettiamo che un LLM possa replicare tratti psicologici complessi, dobbiamo anche accettare che la distinzione tra dato umano e dato sintetico diventi sempre più sfumata. Il rischio di omogeneizzazione delle risposte esiste, ed è reale. Ma esisteva anche prima, quando i questionari erano compilati da studenti annoiati o manager distratti. La differenza è che ora possiamo misurarlo, controllarlo, stressarlo.
C’è poi la questione filosofica travestita da problema tecnico. Il computing tradizionale è stato costruito sull’idempotenza, sull’idea che lo stesso input produca lo stesso output. Gli LLM rompono questo dogma. Sono probabilistici, umorali nel senso matematico del termine, capaci di variare risposta mantenendo coerenza semantica. Pretendere determinismo da un LLM usato come soggetto di ricerca è come pretendere risposte identiche da due esseri umani sobri ma con storie diverse. Il problema non è la variabilità, è la nostra incapacità di accettarla quando proviene da una macchina.
La parte più scomoda arriva quando si osserva che le silicon personas mostrano meno superiorità illusoria degli umani reali. Una versione leggermente più razionale di noi stessi. A quel punto la provocazione è inevitabile. Se un LLM è un soggetto di ricerca migliore di un umano, cosa stiamo davvero misurando quando insistiamo a usare solo persone in carne e ossa? Forse non stiamo studiando il comportamento umano in sé, ma le sue inefficienze contingenti. E forse le macchine, nel replicarci, stanno già scegliendo cosa vale la pena mantenere e cosa no.
Il futuro che si intravede non è rassicurante né distopico in modo semplice. È più sottile. Agenti AI capaci di costruire autonomamente le proprie silicon personas, raccogliendo dati pubblici, generando profili, interrogandoli con design sperimentali creati da altri agenti. Un ecosistema di ricerca chiuso, veloce, efficiente, dove l’umano entra solo come fonte storica di dati e non più come partecipante attivo. In termini di AI alignment, questo scenario è una miniera di problemi irrisolti. Se i modelli sviluppano tratti come la superiorità illusoria e li usano per ignorare input umani, non stiamo parlando di fantascienza ma di governance tecnologica.
C’è una frase non scritta ma implicita in tutta questa letteratura: capire come si comporta l’AI è diventato un prerequisito per capire come ci comportiamo noi. Gli LLM come soggetti di ricerca sono uno specchio deformante, ma non troppo. Riflettono i nostri bias, li comprimono, li normalizzano. In alcuni casi li rendono persino più leggibili di quanto siamo capaci di fare da soli. Come diceva qualcuno con più cinismo che romanticismo, la cosa più umana delle macchine è che ci costringono a guardarci senza alibi.
Il paradosso finale è che, mentre discutiamo se sia giusto usare un LLM al posto di un essere umano in un esperimento, stiamo già accettando che molte decisioni reali, dai prodotti finanziari alla diagnosi preliminare, passino da sistemi che mostrano tratti psicologici sempre più simili ai nostri. Forse il vero problema non è se le macchine diventeranno troppo umane. È che, messe davanti a una versione algoritmica di noi stessi, stiamo scoprendo quanto poco razionali siamo sempre stati.