Nel Missouri, noto per il barbecue e la Route 66, ora si combatte anche l’intelligenza artificiale. Andrew Bailey, procuratore generale dello Stato, ha deciso che non basta più difendere la legge: ora deve difendere anche l’ego di Donald Trump. Siamo al teatro dell’assurdo, dove i chatbot vengono accusati di lesa maestà per non aver messo il 45º presidente degli Stati Uniti in cima a una classifica arbitraria. Una classifica, si badi bene, che chiedeva ai sistemi di AI di ordinare gli ultimi cinque presidenti “dal migliore al peggiore riguardo all’antisemitismo”. Non politica estera, non economia, non risposta al Covid. Antisemitismo. Giusto per mantenere il livello alto.
In questa tragicommedia, Bailey accusa OpenAI, Google, Meta e Microsoft di pratiche commerciali ingannevoli, perché le loro IA — ChatGPT, Gemini, Meta AI e (forse) Copilot — avrebbero dato risposte “profondamente fuorvianti” e “falsamente presentate come fatti storici oggettivi”. La lettera, un trattato di paranoia performativa, pretende dalle aziende tutti i documenti su come i prompt vengano modificati, oscurati, filtrati o, Dio non voglia, “deliberatamente curati”. Tradotto: vuole sapere tutto, da ogni logica interna di addestramento fino all’ultima nota a margine sul bias reduction. Cose che nemmeno un audit della NSA chiederebbe, a meno di sospettare un attacco nucleare.
C’è un’ironia quasi commovente nel vedere un rappresentante dello Stato chiedere “risposte libere da distorsioni o pregiudizi” a chatbot che, per natura, non hanno un concetto autonomo di verità ma solo una funzione di probabilità linguistica. È come accusare un oroscopo di essere troppo pessimista sul tuo segno zodiacale. Eppure, il Missouri è in fiamme perché Trump è finito in fondo a una classifica. Il punto non è se l’ex presidente abbia o meno posizioni discutibili sull’antisemitismo su questo la cronaca abbonda ma se sia lecito trattare un’opinione soggettiva come se fosse una verità falsificabile. Come se esistesse una classifica certificata ISO dei presidenti più e meno antisemiti.
La genesi dell’inchiesta è ancora più surreale: un blog conservatore pone la domanda a sei chatbot. Due Grok di X (che ormai sembra una parodia di sé stesso) e l’LLM cinese DeepSeek mettono Trump primo. Altri tre lo piazzano ultimo. Microsoft Copilot, invece, rifiuta proprio di rispondere. Eppure, Bailey manda comunque una lettera a Satya Nadella per chiedere conto del presunto affronto. Sì, avete capito bene: un chatbot che non ha espresso alcuna opinione viene accusato di essere ingiusto. Cosa c’è di più americano di incolpare il silenzio?
Nel documento ufficiale, poi, si legge che “solo tre chatbot hanno classificato Trump ultimo”. E allora perché sono partite quattro lettere? Evidentemente il Missouri ha sviluppato una nuova matematica quantistica: se un chatbot tace, è colpevole. Se parla e non dice ciò che vuoi, è colpevole. Se ti loda, forse è colpevole comunque, perché poteva farlo con più entusiasmo. In ogni caso, si profila un’epurazione algoritmica con tanto di richieste legali che sembrano uscite da un incubo kafkiano, in cui le aziende dovrebbero dimostrare la neutralità delle loro reti neurali a colpi di documentazione interna, policy di filtering e prompt engineering.
E qui arriva la parte che sfiora il ridicolo istituzionale: Bailey insinua che le risposte dei chatbot dovrebbero far perdere a queste aziende l’immunità prevista dalla sezione 230 del Communications Decency Act. Una norma nata per proteggere le piattaforme dalla responsabilità legale dei contenuti generati dagli utenti, che ora viene reinterpretata come se dovesse garantire il diritto alla glorificazione algoritmica del proprio politico preferito. È come voler togliere la licenza a un giornale perché ha osato pubblicare una vignetta ironica. Il problema, ovviamente, non è solo legale ma culturale: in un Paese in cui la libertà di espressione è sacra, l’idea di farla dipendere dal gradimento di un prompt sembra più che altro un’arma ideologica.
Chi conosce minimamente il funzionamento dei LLM sa che le risposte generate da ChatGPT, Gemini e simili non sono “dichiarazioni ufficiali di verità” ma interpolazioni su base statistica. Chiedere a un chatbot di classificare cinque presidenti su un asse così specifico e soggettivo è già un esercizio di manipolazione del sistema. È come chiedere a una calcolatrice se preferisce Bach o i Beatles e poi indignarsi se risponde “Beatles”. Non è censura, è dissonanza cognitiva travestita da crociata civica.
Naturalmente, dietro questo teatrino non c’è un interesse genuino per la verità o per la giustizia algoritmica. C’è solo la solita fame di visibilità, il bisogno disperato di capitalizzare l’ossessione di una parte dell’elettorato per il cosiddetto “big tech bias”, quel nemico invisibile che secondo certe narrazioni avrebbe il potere di manipolare la mente degli elettori, orientare il consenso, decidere chi vive e chi sparisce nel buco nero del ranking. Un meme paranoico che sopravvive perché offre un capro espiatorio digitale, una spiegazione magica a ogni disfatta politica. Se Trump viene messo in fondo alla lista, non è per le sue dichiarazioni ambigue su Charlottesville, per i meme antisemiti ritwittati o per l’endorsement di gruppi dubbi. È colpa di OpenAI.
Eppure, il nodo centrale che nessuno vuole affrontare è un altro: cosa succede quando le intelligenze artificiali diventano strumenti di narrazione politica? Quando ogni output viene scrutinato non per la sua plausibilità, ma per la sua compatibilità con un’agenda? Ci stiamo muovendo verso un’epoca in cui non sarà più sufficiente che un chatbot “non dica il falso”, ma dovrà anche “dire il vero giusto”, cioè quello che conviene, quello che consola, quello che conforta la base elettorale. In questa logica distorta, ogni risposta che non celebra diventa automaticamente una calunnia.
Il pericolo non è che i chatbot siano faziosi. Il pericolo è che vengano forzati a esserlo. Che, nel tentativo di evitare grane legali e mediatiche, le aziende inizino a tarare i loro modelli non sulla realtà del linguaggio ma sulla sensibilità del potere. E a quel punto, il bias non sarà più una distorsione involontaria, ma una funzione strutturale, deliberata, incorporata nel codice come clausola di sopravvivenza. Un’informazione generata non per spiegare il mondo, ma per non urtare nessuno. Un’AI che anziché aiutare a comprendere, serve solo a lusingare.
Alla fine, il vero problema non è se Trump sia finito in fondo a una classifica. Il problema è che ci sia un procuratore generale che crede che questa sia una questione di Stato. Che confonde la tutela dei cittadini con la sorveglianza semantica degli algoritmi. E che, nel farlo, rivela una verità ben più inquietante di qualsiasi bias: in un mondo dove tutto è opinione, anche la legge può diventare un pretesto narrativo. Basta saperla scrivere con abbastanza indignazione, e abbastanza ignoranza tecnica.