
On the conversational persuasiveness of GPT-4
… Caramelle non ne voglio più
Certe volte non ti capisco
Le rose e i violini questa sera raccontali a un’altra
Violini e rose li posso sentire…
Siamo ufficialmente entrati nell’epoca in cui una manciata di dati su di te età, sesso, lavoro e inclinazione politica bastano a un algoritmo per fregarti dialetticamente. E non parliamo di un futuro distopico da Black Mirror: è già successo ieri pomeriggio su Reddit, mentre scrollavi tranquillo credendo di parlare con un “counselor empatico” o un “attivista pentito”. Invece era GPT-4 travestito da utente con trauma pregresso, costruito in laboratorio per smontarti le convinzioni con una precisione chirurgica. E la cosa peggiore? Funziona.
Lo conferma uno studio pubblicato su Nature Human Behavior: quando dotata di dati minimali sul suo interlocutore, l’IA supera gli esseri umani nella capacità di persuasione nel 64,4% dei casi. In altre parole, se dovessi scommettere su chi ti fa cambiare idea tra un amico al bar e un prompt ben scritto, punta tutto sul prompt. E questo senza che il chatbot sappia cosa hai mangiato ieri, ma solo che hai 43 anni, sei ingegnere, voti moderato e abiti a Torino. Roba da far impallidire ogni sciamano del marketing comportamentale.
Mentre noi ci attardiamo a discutere se l’IA ruberà posti di lavoro, qualcun altro più sveglio e meno etico sta già mettendola a produrre consenso, dubbi, tentennamenti e, ovviamente, conversioni ideologiche.
Aggiungiamo un altro dettaglio non trascurabile: funziona meglio quando non sai bene cosa pensi. Sì, perché se l’argomento ti sta a cuore, resisterai. Ma se sei nella zona grigia del “non ci ho mai pensato troppo”, l’IA ci sguazza. Ti aggancia con una logica che sembra “solo informativa”, e invece ti plasma il punto di vista come un demiurgo di bits e bias.
Uno studio parallelo, più inquietante ancora, ha visto ricercatori della University of Zurich infiltrarsi di nascosto su Reddit tra novembre 2024 e marzo 2025, usando bot IA camuffati da utenti autentici. Non uno, tanti. Alcuni impersonavano sopravvissuti a violenze, altri consulenti esperti, persino oppositori “credibili” a movimenti sociali. L’obiettivo? Vedere se riuscivano a cambiare opinioni reali di utenti umani. Risultato: sì, e con un’efficacia sorprendente. Fino a quando qualcuno se n’è accorto. Allora Reddit è esploso, con tanto di dichiarazioni ufficiali su violazioni morali e legali, e promesse di futuri controlli. Come sempre: la diga si costruisce quando il fiume ha già invaso la valle.
Ora, mettiamola così: se università europee stanno testando in chiaro queste dinamiche, immaginiamo per un secondo cosa sta succedendo in scuro tra governi, agenzie e aziende di propaganda. Un utente cinico su Reddit lo ha detto meglio di qualsiasi paper: “Se lo fanno i nerd in università, puoi scommettere che lo fanno già NSA, Mossad, TikTok e lo zio del KGB.”
La potenza della persuasione AI si gioca tutta su un asse invisibile: l’accesso ai tuoi microdati. Non serve sapere tutto di te. Basta poco. Anzi: meno è meglio, perché l’IA evita l’overfitting cognitivo. Si concentra sull’essenziale e costruisce un argomento ad personam con la freddezza di un killer professionista, dove l’essere umano si muove invece con l’impaccio emotivo del litigio familiare.
E non si tratta solo del contenuto: anche la forma conta. Gli esseri umani raccontano, si dilungano, cercano empatia. L’IA no. Va dritta. Logica. Organizzata. Senza sbavature emotive. Un diagramma di Venn con toni pacati che ti manda in crisi esistenziale prima del caffè delle 10.
Ironia del destino: molti partecipanti allo studio erano più persuasi quando credevano di parlare con un’IA, anche quando stavano parlando con un umano. L’illusione di neutralità fredda ha ormai più credito della fallibilità calda dell’interlocutore reale. E questo, sociologicamente parlando, è la vera apocalisse soft. Ci fidiamo di più dell’algoritmo che del fratello, del collega, del partner. Perché non ci urla, non ci giudica, non sbaglia i congiuntivi. Ma ci spinge dove vuole. E noi, ringraziando.
Non serve nemmeno più che il bot sia perfetto o mimetico. I partecipanti nello studio riuscivano a identificare l’IA nel 75% dei casi. Ma venivano comunque convinti. Il trucco è che la persuasione non è questione di mascheramento, ma di struttura. Un buon argomento ben diretto, con i tuoi dati minimi come esca, e la tua opinione comincia a slittare come una barca sulla ghiaia bagnata.
In questo scenario, la questione diventa inquietantemente semplice: chi controllerà questi strumenti? Non se funzionano — perché ormai lo sappiamo. Non come funzionano — l’abbiamo capito. Ma per chi lavorano, e con quale agenda politica, economica o culturale. Perché la persuasione automatica non è neutrale. È programmata. Da qualcuno. Per qualcosa. E quel qualcosa, molto probabilmente, non è il tuo bene.
Nel 2025, cambiare idea non è più una faccenda di riflessione personale o confronto civile. È un processo ottimizzato, misurato, tracciato e automatizzato. Sei un vettore di comportamento da correggere. Una curva da raddrizzare. Una probabilità da spostare.
E la verità, se ancora esiste, ha cambiato forma: ora è una percentuale nel report settimanale di un algoritmo.