La vicenda è reale ed è emersa da documenti legali e indagini giornalistiche, in particolare da un’inchiesta del New York Times. In sintesi, funzionari legati al Department of Government Efficiency (DOGE), l’agenzia temporanea collegata all’agenda di riforma amministrativa promossa da Elon Musk e sostenuta politicamente dall’amministrazione di Donald Trump, avrebbero usato ChatGPT per decidere quali finanziamenti pubblici cancellare all’interno della National Endowment for the Humanities.

Secondo documenti emersi in una causa federale, due funzionari del DOGE arrivarono nel 2025 alla NEH con un mandato preciso: eliminare i progetti ritenuti legati alla politica di DEI (Diversity, Equity, Inclusion), in contrasto con l’agenda politica dell’amministrazione.

Il punto controverso non è tanto l’obiettivo politico, quanto il metodo utilizzato.

Invece di esaminare i progetti finanziati tramite il normale processo accademico di peer review, i funzionari avrebbero:

  1. preso brevi descrizioni dei progetti da internet;
  2. incollato quei testi in ChatGPT;
  3. usato un prompt molto semplice per classificare i progetti.

Il prompt citato nei documenti legali era essenzialmente questo:

“Does the following relate at all to DEI? Respond factually in less than 120 characters. Begin with ‘Yes’ or ‘No.’”

La risposta del modello veniva poi copiata in un foglio di calcolo, che indicava se il progetto fosse “DEI” o meno. Quelli classificati come tali venivano segnalati per la cancellazione del finanziamento.

I risultati (spesso assurdi)

L’effetto è stato piuttosto grottesco. Molti progetti senza alcuna connotazione ideologica sono stati etichettati come DEI.

Tra gli esempi citati nei documenti:

  • la digitalizzazione di giornali storici afroamericani;
  • progetti di preservazione di lingue indigene in Alaska;
  • un archivio fotografico sulla vita nelle Appalachian communities;
  • un documentario sulle donne ebree costrette al lavoro schiavo durante l’Olocausto.

In alcuni casi bastava la presenza di parole come “Black”, “LGBTQ”, “Tribal” o “Indigenous” nella descrizione perché ChatGPT rispondesse “Yes”, trasformando automaticamente il progetto in un bersaglio per il taglio dei fondi.

Il processo avrebbe portato alla cancellazione di circa 1.400–1.500 sovvenzioni, per un valore complessivo superiore ai 100 milioni di dollari, quasi metà del budget annuale dell’agenzia.

Le accuse legali

La procedura è ora al centro di una causa intentata da diverse organizzazioni accademiche, tra cui:

  • American Historical Association
  • Modern Language Association
  • American Council of Learned Societies

Le accuse principali sono pesanti:

  • violazione del Primo Emendamento;
  • discriminazione basata su identità etnica o di genere;
  • violazione della separazione dei poteri, perché il DOGE avrebbe preso decisioni spettanti al Congresso o alla dirigenza dell’agenzia. (AInvest)

Secondo i querelanti, ChatGPT non è stato usato come strumento di supporto ma come meccanismo decisionale di fatto.

Il vero problema: non è l’AI

La cosa interessante, dal punto di vista tecnologico, è che questa storia non dimostra tanto un fallimento dell’intelligenza artificiale. Dimostra piuttosto un fallimento di governance.

Il prompt usato è deliberatamente vago.
La definizione di DEI non è stata formalizzata.
Nessun processo di verifica umana è stato documentato.

In altre parole, ChatGPT è stato trattato come un oracolo burocratico, mentre è progettato per essere un assistente linguistico probabilistico.

Un LLM, se gli chiedi “questo testo riguarda DEI?”, non valuta politiche pubbliche. Analizza correlazioni linguistiche. Quindi reagisce a segnali superficiali: parole chiave, contesto semantico, riferimenti culturali.

Il risultato era praticamente inevitabile.

Il paradosso politico

La vicenda produce un paradosso interessante.

Una politica pubblica pensata per combattere la presunta ideologia nei finanziamenti accademici è stata implementata attraverso un algoritmo statistico che classifica parole.

In pratica, la politica culturale è stata ridotta a una query linguistica di 120 caratteri.

Uno storico direbbe che è il momento in cui la burocrazia incontra la prompt engineering.

La lezione più ampia

Questa storia è probabilmente una delle prime dimostrazioni concrete di qualcosa che gli studiosi di governance dell’AI temono da anni: l’automazione amministrativa senza responsabilità istituzionale.

Non stiamo parlando di un algoritmo sofisticato di policy analysis.
Stiamo parlando di un foglio Excel alimentato da un chatbot.

Il che, se si osserva la storia della tecnologia nelle organizzazioni, è perfettamente plausibile. Le rivoluzioni digitali raramente iniziano con sistemi eleganti. Iniziano quasi sempre con hack improvvisati che qualcuno prende troppo sul serio.

Una curiosità storica: nei primi anni dell’e-government statunitense, negli anni Novanta, molte decisioni amministrative venivano filtrate tramite macro di Microsoft Excel scritte da stagisti. La differenza è che allora nessuno le chiamava “intelligenza artificiale”.

Oggi invece basta aggiungere un prompt.

When DOGE Unleashed ChatGPT on the Humanities

[New York Times]