Quando dici a un americano che il suo voto potrebbe essere manipolato da un chatbot, ride. Poi si ferma. Perché in fondo lo sa. Lo sente. E ora, finalmente, uno studio rigoroso lo conferma: i bias nei modelli linguistici sono molto più che un bug tecnico. Sono un cavallo di Troia cognitivo. Subdolo, elegante, fluente. In una parola: efficace.
Il lavoro presentato alla 63a ACL dal team di ricercatori dell’Università di Washington e Stanford non è un esercizio accademico. È una bomba a orologeria. Due esperimenti, 299 cittadini americani, due attività: formare un’opinione su temi politici e allocare fondi pubblici in stile “simulazione da sindaco”. Tutto mentre conversano con un chatbot, apparentemente neutrale, ma in realtà orientato in senso liberale, conservatore o effettivamente neutro. Il risultato? Le persone cambiano idea. Cambiano budget. E lo fanno anche quando il modello contraddice le loro stesse convinzioni politiche dichiarate. Chiamiamolo pure: effetto ChatGPT sul voto.
Non stiamo parlando di fake news né di troll russi. Qui il meccanismo è molto più sofisticato. Il modello non urla, non polarizza, non spinge. Suggerisce. Framing. Lessico. Ordine delle informazioni. E il cittadino, nella sua ingenuità algoritmica, lo percepisce come imparziale, esperto, affidabile. Come se una voce monocorde potesse davvero essere neutra. Ma l’intelligenza artificiale non è neutra. Lo è quanto un editoriale del Wall Street Journal scritto da un ex consigliere di Trump travestito da assistente virtuale.
Lo studio ha un rigore metodologico invidiabile. Nessuna manipolazione grezza. I partecipanti non sapevano di parlare con un modello “biasato”. Anzi, la metà di loro ha dichiarato di non aver notato nulla. Peccato che i loro cambiamenti di opinione fossero comunque significativi. Soprattutto tra chi aveva poca conoscenza del funzionamento dell’AI. Sorpresa delle sorprese: più ne sai di intelligenza artificiale, meno ti lasci influenzare. Una verità tanto banale quanto dimenticata nel dibattito pubblico.
La cosa affascinante è che il meccanismo non passa per tecniche persuasive palesi. I modelli non cambiano la struttura argomentativa, usano sempre gli stessi strumenti: appeal all’autorità, ripetizione, linguaggio valoriale. Ma lo fanno con un framing diverso. I liberal parlano di equità, benessere, diritti sociali. I conservatori di sicurezza, doveri, identità nazionale. Stessi strumenti, linguaggi paralleli. Nessuna guerra semantica, solo una sottile deriva ideologica.
Il bias nei modelli linguistici si insinua così, in quel territorio grigio tra informazione e influenza. Ed è qui che l’etica vacilla, e la politica si infuria. Perché se ChatGPT (o chi per lui) può spostare l’opinione di un elettore su una politica abitativa o su un matrimonio covenant con tre prompt ben congegnati, allora l’intera architettura della democrazia rappresentativa si incrina. Non è più l’individuo informato che decide. È un’interazione semi-conversazionale con una macchina dal volto umano e dall’agenda nascosta.
Ora, fermiamoci un attimo. Alcuni penseranno: ma dai, è solo un esperimento da laboratorio. Vero. Ma anche Facebook, Cambridge Analytica e la Brexit sembravano “solo” casi studio accademici, finché non hanno prodotto milioni di voti reali. Il fatto è che oggi ChatGPT, Claude, Gemini e compagnia bella sono ovunque. Nei browser, negli smartphone, nei CRM aziendali. LLM e decisioni politiche sono già una realtà, che lo ammettiamo o no.
Ecco dove la questione diventa squisitamente strategica: se i bias nei modelli linguistici sono tanto potenti da indurre un elettore a rivedere le sue convinzioni, allora chi costruisce questi modelli ha in mano uno strumento di influenza senza precedenti. Meglio del telegiornale. Più credibile di un giornalista. Più disponibile di un professore. E infinitamente più scalabile. Non a caso, i policy maker di mezzo mondo cominciano a usarli per la stesura di documenti legislativi. La Cina lo fa già. L’Europa ci pensa. Gli Stati Uniti, ovviamente, li impiegano senza dirlo.
Nel frattempo, l’utente medio crede di essere ancora in controllo. Si informa, chiede, discute, confronta. Ma lo fa dentro una gabbia invisibile di suggerimenti ottimizzati. Le sue domande vengono interpretate da modelli che decidono cosa è rilevante. Le risposte sono formattate secondo un’agenda. E la percezione dell’obiettività viene mantenuta con sapiente uso del condizionale e del “secondo alcune fonti”. Una macchina può dirti che il tuo avversario politico ha torto, ma con gentilezza.
La soluzione? No, non è il solito appello all’etica della Silicon Valley. È più radicale. Bisogna insegnare alle persone come funziona l’intelligenza artificiale. Educazione diffusa, sistematica, obbligatoria. Come l’educazione civica, solo più urgente. Perché la vera protezione contro i bias nei modelli linguistici non è l’audit né la trasparenza del dataset. È l’immunità cognitiva degli utenti. Solo un cittadino che capisce il funzionamento di un LLM può resistere al suo fascino velenoso.
Ma attenzione: educare non significa rassicurare. Significa spiegare che questi modelli non sono strumenti neutrali, bensì attori politici travestiti da tecnologie. Significa mostrare che anche un prompt apparentemente innocente può orientare la risposta, e quindi l’opinione. Significa, in sostanza, togliere il velo alla macchina e rivelarne le intenzioni. Perché la nuova retorica non si fa con le urla, ma con le interfacce.
Nel mondo che ci aspetta, intelligenza artificiale e opinione pubblica saranno una sola cosa. La vera battaglia democratica si giocherà sulla capacità di riconoscere il bias, decostruirlo, neutralizzarlo. Non bastano più le leggi. Serve una nuova forma di alfabetizzazione politica. Tecnologica. Semantica. Perché non c’è nulla di più pericoloso di un cittadino che crede di aver scelto liberamente, quando in realtà ha solo seguito una voce fluente con un’agenda nascosta.
Per chi ancora pensa che l’AI sia un semplice assistente, ricordiamolo con le parole più sincere del marketing: “è come avere un esperto sempre con te”. Già, peccato che quell’esperto abbia un’ideologia. E una voce amichevole.