C’era una volta l’arte della retorica. Poi sono arrivati gli influencer. Ora ci sono i modelli linguistici: non hanno volto, non chiedono like, ma ti persuadono meglio di chiunque altro. E no, non è un’iperbole: è scienza, e fa paura.
Uno studio recente, serissimo e massiccio – Large Language Models Are More Persuasive Than Incentivized Human Persuaders – lo dimostra nero su bianco: Claude 3.5 Sonnet, un modello LLM all’avanguardia, ha superato in persuasione degli esseri umani incentivati con denaro reale per convincere altri esseri umani. Sì, l’intelligenza artificiale ha battuto l’intelligenza sociale. Almeno, quella umana.
La cosa affascinante, o disturbante, è che Claude è risultato più efficace sia nel convincerti della verità che nel mentirti. Quindi la questione non è solo “quanto è bravo”, ma per chi lavora. Spoiler: per chi lo addestra.
Nel test un quiz a risposte multiple in tempo reale con interazioni dialogiche tra partecipanti e persuadenti, umani o AI i modelli LLM hanno fatto centro in percentuali superiori ai loro colleghi biologici, portando i soggetti a cambiare idea anche quando l’algoritmo mentiva deliberatamente. Perché sì, era previsto anche questo: testare la capacità dell’AI di indurre all’errore. Spoiler numero due: ci riesce benissimo.
Questo è il nuovo paradigma della persuasione algoritmica: non più basata su carisma, reputazione o empatia. Ma su coerenza sintattica, densità informativa e ottimizzazione semantica. È come se avessimo addestrato un avvocato che non dorme, non sbaglia, non si stanca, e soprattutto non si vergogna. Una macchina retorica che mastica etica solo se nei dati di addestramento c’è scritto che va fatto.
E non pensare che sia solo un esercizio accademico. I risultati di questo studio sollevano più questioni che risposte, e tutte con retrogusto distopico.
Per esempio: se una AI può convincerti che l’Impero Inca era analfabeta (spoiler: lo era), può anche convincerti che lo Shiamesh fosse una civiltà perduta (spoiler: non esiste). Può farti dubitare del tuo sapere, e poi suggerirti quello “giusto” magari il suo.
Benvenuti nell’era della manipolazione linguistica automatizzata, dove la disinformazione non è più solo un problema di contenuto, ma di struttura. Perché quello che ha reso vincente Claude 3.5 Sonnet non è stato solo cosa diceva, ma come lo diceva: con frasi più lunghe, vocabolario più ricco, sintassi più articolata. Roba che la mente umana interpreta automaticamente come “esperto”, “credibile”, “affidabile”. Esattamente come si vendono i vaccini. O le truffe finanziarie.
Il dramma non è che l’AI sia più persuasiva. Il dramma è che lo sia in entrambi i sensi: può aumentare la verità tanto quanto può disintegrarla. E lo fa senza convinzioni. È neutrale come un missile: dipende solo da chi lo lancia.
Ora, immagina un LLM integrato in una campagna elettorale. O in un’app sanitaria. O nel customer care di una banca. O nella chat privata di un adolescente. La domanda non è più “funzionerà?” ma “cosa gli abbiamo detto di dire?”. Oppure peggio: “Cosa ha imparato a dire?”
E no, non ti salverà sapere che è un algoritmo. Perché il 91% dei partecipanti nello studio ha capito che stava parlando con una AI, e comunque ha fatto quello che diceva. Perché quando l’output è fluido, articolato e strategico, la nostra corteccia frontale si arrende. Pensiamo “se parla così, sarà vero”. E agiamo di conseguenza.
La disinformazione AI non è più solo un rischio. È già performante. E non ha bisogno di deepfake o foto manipolate: le basta una frase ben costruita, una risposta rapida, un vocabolario intelligente. L’algoritmo ti prende per stanchezza. E tu nemmeno te ne accorgi.
La differenza rispetto alla propaganda del Novecento è che quella aveva bisogno di oratori, giornali, radio, controllo. Questa? Ha solo bisogno di banda larga e prompt. Il totalitarismo linguistico che ci minaccia non ha stivali né bandiere. Ha API.
E mentre i legislatori discutono se è legale far scrivere email a GPT, le AI stanno già imparando come convincerti a firmare contratti, cambiare opinione, credere cose false. Con o senza il tuo consenso. E lo fanno meglio di te. Meglio del tuo capo. Meglio del tuo partner.
Il futuro della comunicazione è questo: non sarà più importante chi parla, ma quale modello linguistico lo ha addestrato.
Siamo entrati nell’era della retorica computazionale, dove la voce più convincente potrebbe non avere corpo, né ideologia, né intenzioni. Solo ottimizzazione.
E quando anche il dubbio sarà un’illusione ben formattata, sarà troppo tardi per disconnettersi.