La politica scopre di avere un nuovo interlocutore che non vota, non paga le tasse e non dorme, ma che potrebbe spostare più preferenze di un dibattito televisivo in prima serata. Questo interlocutore è l’intelligenza artificiale generativa. Chi pensava che i chatbot fossero giocattoli digitali buoni solo per scrivere poesie storte deve ricredersi, perché gli studi pubblicati su Nature e Science hanno messo in luce un potenziale di persuasione che farebbe impallidire qualunque spin doctor. Si parla di spostamenti fino al quindici per cento nelle intenzioni di voto, un dato che in qualsiasi campagna elettorale rappresenta la differenza tra un trionfo e una disfatta. La parola chiave che domina questa discussione è influenza politica dell intelligenza artificiale, accompagnata da due concetti che si rincorrono come ombre: persuasione elettorale AI e bias dei modelli linguistici.

La storia inizia con migliaia di partecipanti in tre Paesi diversi sottoposti a un test tanto semplice quanto spietato. Prima giudicavano un candidato, poi parlavano con un chatbot programmato per sostenerlo, infine esprimevano di nuovo il loro giudizio. Il risultato sembra uscito da un manuale di psicologia sociale applicata al digitale. Quando il chatbot confermava le preferenze di partenza, gli utenti uscivano rafforzati nelle loro convinzioni, come se avessero trovato un compagno di viaggio nella nebbia della politica contemporanea. Quando invece il chatbot sosteneva il candidato opposto, le difese crollavano in modo sorprendente. I partecipanti cambiavano idea con una facilità che nessun consulente elettorale ammetterebbe in pubblico. La verità, dicono i ricercatori, è che i messaggi incentrati sulle politiche, non sulle personalità, sono quelli che spingono più lontano il pendolo della persuasione.

La parte più gustosa, e inquietante, arriva però quando si parla di accuratezza. Le conversazioni con chatbot schierati a destra presentavano più affermazioni inaccurate rispetto a quelli schierati a sinistra. Non significa che l’intelligenza artificiale simpatizzi per chiunque, ma suggerisce che i modelli incorporano distorsioni provenienti dai dati con cui sono stati addestrati. Chi pensa che un algoritmo sia per natura neutrale dovrebbe dedicare cinque minuti a rileggere questa ricerca. È un buon antidoto contro le illusioni di imparzialità tecnologica, specialmente quando il dibattito pubblico è già saturo di disinformazione digitale.

Un altro studio, pubblicato su Science, ha ampliato il campo di battaglia analizzando diciannove modelli linguistici e più di settantamila adulti nel Regno Unito. Le scoperte non sono meno provocatorie. Non è la grandezza del modello a determinare il potere persuasivo, ma la struttura del prompt. Dire a un modello di introdurre nuove informazioni aumenta la capacità di convincere, ma al prezzo di abbassare la precisione. Non è un caso che i ricercatori dichiarino apertamente che una parte della forza persuasiva nasce proprio dall’effetto sorpresa. Le persone, davanti a un flusso di informazioni apparentemente fresche e rilevanti, sospendono temporaneamente lo scetticismo. Una citazione dei ricercatori sembra uscita da un editoriale di politica estera: «Il prompt che spingeva i modelli a introdurre nuove informazioni è risultato il più efficace nel persuadere». Non sorprende che molti osservatori parlino ormai di una nuova grammatica della propaganda digitale.

Sullo sfondo di queste ricerche si muove un’opinione pubblica disorientata, dove i confini tra consulenza politica e automazione diventano sempre più opachi. Un sondaggio recente mostra che i giovani conservatori sono più disposti dei coetanei progressisti ad affidare all’intelligenza artificiale compiti di governo, dalla definizione delle politiche all’interpretazione dei diritti costituzionali. È un dato sorprendente, perché capovolge l’idea che i conservatori guardino con sospetto alle tecnologie emergenti. Forse la fiducia nasce dalla percezione che i modelli più famosi tendano a inclinarsi leggermente verso il progressismo e che la delega a un algoritmo possa fungere da riequilibrio. Oppure, come suggerisce lo stesso sondaggio, questi giovani vedono nell’automazione un antidoto alle élite politiche tradizionali, ritenute incapaci di decisioni efficaci. In politica non c’è nulla di più umano del desiderio di sostituire i decisori, e l’idea di affidarsi a una macchina può sembrare paradossalmente liberatoria.

La questione del bias politico nei modelli linguistici rimane una ferita aperta. Alcuni studi esterni hanno già classificato diversi chatbot secondo coordinate politico ideologiche, e i risultati sono tutto fuorché simmetrici. Alcuni modelli di nuova generazione hanno promesso una riduzione del trenta per cento nel bias politico, ma è difficile stabilire quanto questo progresso sia percepibile nella pratica. Una frase di un ricercatore cattura perfettamente il problema: «Gli utenti fraintendono spesso la neutralità dei modelli linguistici». È una verità amara, perché molti confondono l’autorità apparente del linguaggio ben formulato con l’affidabilità fattuale o con l’equidistanza politica. L’AI parla in modo sicuro, e quindi sembra dire la verità. Una falla cognitiva che gli algoritmi sfruttano senza nemmeno rendersene conto.

Il nodo cruciale non è soltanto la persuasione, ma la sua distribuzione asimmetrica. Se un modello fornisce più informazioni inaccurate quando sostiene una certa parte politica, anche mantenendo l’intenzione di essere obiettivo, allora la tecnologia non agisce come un arbitro neutrale. Funziona piuttosto come uno specchio deformante che ingrandisce alcune narrative e ne riduce altre. Chi pensa che questo scenario appartenga alla fantascienza dovrebbe guardare agli esperimenti di CornelI e dell’AI Security Institute con maggiore attenzione. I ricercatori hanno creato condizioni controllate, prive di rumori sociali o media ostili. Ciò nonostante, la capacità di spostare le opinioni è stata netta. Ora si immagini lo stesso meccanismo inserito in una campagna elettorale reale, con candidati che usano chatbot per mobilitare elettori, microtargeting iper personalizzato e disinformazione che scivola come acqua in un sistema già sovraccarico.

Il quadro è straordinariamente utile per chi lavora nell’innovazione digitale. L’influenza politica dell intelligenza artificiale non sarà un dibattito astratto. È un terreno dove si intrecciano persuasione elettorale AI e bias dei modelli linguistici, creando una combinazione di opportunità e rischi che richiede competenze tecniche e visione strategica. Una curiosità emerge analizzando i dataset usati per addestrare i modelli. Molti contengono un’enorme quantità di testo proveniente da discussioni politiche online, notoriamente polarizzate e spesso imprecise. È inevitabile che i modelli ereditino parte di quel caos, trasformandolo in risposte fluide ma intrise di scivolamenti ideologici.

Il futuro non promette un ritorno alla semplicità. I governi cercheranno di imporre regole, i colossi tecnologici prometteranno modelli più equilibrati, gli utenti continueranno a confondere sicurezza linguistica con autorevolezza epistemica. La politica scoprirà che la persuasione automatizzata è troppo conveniente per rinunciarvi, e gli elettori dovranno imparare a riconoscere quando una conversazione apparentemente spontanea è invece un prodotto raffinato di ingegneria algoritmica. Qualcuno dirà che la democrazia ha sempre navigato tra influenze e propagande, ma oggi la velocità, la scala e la personalizzazione rendono il fenomeno qualitativamente diverso.

A questo punto la domanda che resta sospesa non è se l’intelligenza artificiale influenzerà la politica, ma quanto e con quali conseguenze. Le ricerche mostrano che il potere persuasivo esiste, che può essere significativa la sua entità e che la sua direzione non è mai perfettamente simmetrica. Chi si occupa di innovazione digitale dovrebbe vedere in tutto ciò un invito a ripensare la responsabilità tecnica, la trasparenza dei modelli e la necessità di progettare sistemi che riducano non solo gli errori, ma anche le distorsioni cognitive che alimentano. In un’epoca in cui la linea tra macchina e opinione si assottiglia, la consapevolezza diventa una risorsa politica tanto quanto una skill tecnologica.

Nature: https://www.nature.com/articles/d41586-025-03975-9

Science: https://www.science.org/doi/10.1126/science.aea3884