Sembra il copione di un episodio di Black Mirror, ma è solo cronaca: OpenAI, la stessa che ha trasformato l’intelligenza artificiale generativa in un assistente per studenti in crisi e copywriter disoccupati, ora gioca con le regole dell’intelligence a stelle e strisce. “OpenAI for Government” è il nome sobrio (e vagamente orwelliano) del nuovo programma lanciato negli Stati Uniti. Nessuna fanfara, ma un pilota da 200 milioni di dollari con il Dipartimento della Difesa come cliente zero. Se ChatGPT era il giocattolo dei marketer, ora è il soldato dei burocrati.
Sì, perché dietro le parole “tagliare la burocrazia” si cela molto di più: modelli personalizzati per la sicurezza nazionale, accessi privilegiati alla suite Enterprise, e soprattutto l’avvio di una collaborazione operativa e non solo tecnologica con enti federali, statali e locali. Detto altrimenti: l’AI non è più lo specchio magico dei social, ma un ingranaggio silenzioso nell’architettura operativa dello Stato.
Il pilota con il Dipartimento della Difesa non è un semplice test. È una dichiarazione d’intenti. I campi d’azione sono tre e fanno tremare i polsi a chi sa leggere tra le righe: sanità per i militari (che sa tanto di raccolta dati sensibili a tappeto), gestione di acquisizioni e programmi (cioè procurement bellico con AI che ‘suggerisce’ decisioni strategiche), e cyberdifesa proattiva (dove la generatività dell’AI potrebbe voler dire identificare pattern prima che esistano). Se ti sembra familiare, è perché lo è: è lo stesso principio usato da predictive policing e credit scoring, ma con più camouflage.
Il gioco, però, è già in corso anche altrove. NASA, NIH, il Tesoro e i Laboratori Nazionali hanno già integrato la piattaforma. In Pennsylvania, l’esperimento è diventato un caso studio: ChatGPT, integrato in attività amministrative, ha fatto risparmiare mediamente 105 minuti al giorno per dipendente. Poco più di un’ora. Ma moltiplicalo per 50 stati, e capisci perché la macchina statale americana si sta innamorando del suo nuovo collega sintetico.
Certo, la narrativa ufficiale recita “strumenti per servire meglio i cittadini”, ma il sottotesto è più torbido: chi scrive i prompt? Chi valuta l’output? E, soprattutto, chi ha accesso alla versione “customizzata” per la sicurezza nazionale? Qui non si parla di AI open source, ma di modelli adattati, addestrati, raffinati in funzione di obiettivi strategici, con livelli di accesso e auditabilità che resteranno inevitabilmente opachi.
La parola chiave è una: sovranità digitale. Ma negli USA assume un significato diverso. Non è l’Europa a interrogarsi su come contenere le Big Tech, ma sono le Big Tech a diventare infrastrutture della sovranità americana. OpenAI, nel farsi governo, non ha solo trovato un nuovo mercato: ha risposto alla chiamata di un apparato che cerca tecnologie scalabili, flessibili e compatibili con la sua ossessione per il controllo preventivo.
E qui entra in gioco la compliance, parola-totem di ogni impiego pubblico. ChatGPT Gov non è solo una versione più sicura: è compliant con le norme FERPA, HIPAA, e probabilmente con molti altri acronimi che giustificano una maggiore chiusura del modello e meno trasparenza per il pubblico. Nessuna API libera, nessuna spiegabilità algoritmica. Solo output efficiente, seamless integration, e riduzione dei “tempi morti”.
Chi fa il CTO in azienda capisce subito dove si va a parare. Questa è una gigantesca PaaSification della governance. Il governo non costruisce AI, la affitta. Ma in modo esclusivo. Il parallelismo con l’uso storico di Microsoft o Palantir è evidente, ma con un twist: l’intelligenza non è più nel software, ma nella sua capacità di apprendere dal comportamento umano. A ogni ticket chiuso, a ogni nota spese, il modello si affina. E l’apparato cresce.
Ironia della sorte: mentre l’Europa discute ancora di AI Act, e le startup si sforzano di “democratizzare” l’accesso all’AI, la democrazia più armata del mondo ha già messo l’AI sotto contratto. Non solo: l’ha fatta sua alle condizioni della Silicon Valley. Con i suoi ritmi, i suoi NDA, le sue zone d’ombra. La retorica del “bene pubblico” serve giusto a coprire ciò che è, in fondo, un’operazione di nazionalizzazione soft della capacità cognitiva generativa.
E per chi teme una deriva da Skynet, tranquilli: per ora ChatGPT non ha armi. Ma ha accesso ai dati sanitari dei soldati, e questo basta per dormire male.
Come diceva il generale Patton: “If everyone is thinking alike, then somebody isn’t thinking.” Ma se tutti i prompt convergono in un unico LLM, chi sta davvero pensando?