C’è un momento preciso in cui la tecnologia smette di essere una novità e inizia a diventare parte dell’apparato. È il momento in cui il governo degli Stati Uniti, notoriamente lento come una stampante del ‘98 ma implacabile nella strategia, decide che può fidarsi di qualcosa. È appena accaduto con l’intelligenza artificiale per enti federali. Google, OpenAI e Anthropic sono state inserite nella lista ristretta dei fornitori approvati dal governo per offrire servizi AI alle agenzie civili. Un gesto che, per chi sa leggere il codice tra le righe, suona come un matrimonio più che un contratto.
La piattaforma di riferimento è il MAS, acronimo per Multiple Award Schedule. Un nome burocraticamente insipido che nasconde però un cambio strutturale nella logica del procurement federale. Tradotto: le agenzie governative non dovranno più perdere tempo a negoziare con ogni singola big tech per avere accesso alle loro intelligenze artificiali. Saranno disponibili tramite contratti pre-negoziati. Un supermarket dell’AI dove la qualità è già stata verificata, la sicurezza garantita e il prezzo… più o meno digerito.
Chi ha fatto l’audit? La General Services Administration, l’agenzia che nessuno conosce ma che gestisce quasi tutto il funzionamento pratico dell’amministrazione federale. Secondo Bloomberg, che ha anticipato la notizia, la GSA ha valutato Google, OpenAI e Anthropic secondo criteri di sicurezza e performance. Non esattamente due paroline da poco nel vocabolario dell’intelligenza artificiale, soprattutto quando si parla di modelli generativi che potrebbero essere utilizzati da agenzie federali per analizzare documenti, creare contenuti o, perché no, fare il profiling semantico di interi paesi.
Naturalmente l’annuncio non arriva in un vuoto pneumatico. Arriva dopo una sequenza di ordini esecutivi, firmati da Donald Trump, che delineano una visione molto precisa dell’intelligenza artificiale come leva geopolitica. Non si tratta solo di usare modelli linguistici per scrivere comunicati stampa governativi. Il punto è garantire che gli strumenti di AI utilizzati dagli enti federali siano “liberi da pregiudizi ideologici”. Un’affermazione che fa sorridere chiunque abbia passato più di dieci minuti con ChatGPT, Claude o Gemini. Ma che diventa tremendamente seria quando viene trasformata in legge esecutiva.
C’è poi il piccolo dettaglio delle norme ambientali. Trump ha ordinato l’allentamento degli standard ambientali per facilitare la costruzione di nuove infrastrutture energetiche a supporto dei data center. Perché senza energia, l’intelligenza artificiale è solo un mucchio di bit disoccupati. Dietro questa mossa, si intravede un disegno molto chiaro: l’AI non solo deve essere Made in USA, ma deve essere ospitata in casa, alimentata con corrente nazionale e, soprattutto, immunizzata da qualunque contaminazione “straniera” o ideologica.
Qui si tocca il cuore della questione. Quando il governo degli Stati Uniti approva ufficialmente l’uso di intelligenza artificiale per enti federali da parte di tre aziende private, sta facendo una scelta strategica. Una scelta che afferma una nuova simbiosi tra il settore pubblico e le big tech, tra la burocrazia e la siliconizzazione dell’apparato amministrativo. È l’istituzionalizzazione dell’AI come leva operativa del potere civile, non più solo come strumento di marketing o innovazione.
E Google? E OpenAI? E Anthropic? Sorridono, naturalmente. Perché entrare nel MAS significa accedere a una pipeline di contratti pubblici da miliardi di dollari, ma soprattutto ottenere un bollino di legittimità che vale oro nelle negoziazioni internazionali. Se sei approvato dal governo USA, puoi presentarti in qualunque boardroom con una credibilità che nessuna certificazione ISO potrà mai garantirti. È il “benestare” del deep state. E non si rifiuta mai.
Molti si chiedono cosa significherà questa mossa per la trasparenza, la neutralità e l’etica dell’intelligenza artificiale. Domande nobili, ma ormai irrilevanti. La posta in gioco non è l’etica, è il dominio informativo. Chi controlla i modelli linguistici utilizzati dalle agenzie governative, controlla il flusso cognitivo dello Stato. E se ti sembra esagerato, chiediti chi ha scritto i prompt per l’ultimo documento del Congresso. Oppure chi fornirà gli strumenti di analisi semantica alla Homeland Security nei prossimi mesi.
Questa è la vera partita dell’AI governance. Non si gioca nei laboratori di ricerca, ma nei corridoi di Washington, tra un server AWS e un caffè tiepido dell’amministrazione. E ogni volta che un’agenzia pubblica userà GPT o Claude per prendere decisioni operative, si consoliderà un nuovo tipo di dipendenza: cognitiva, infrastrutturale e, soprattutto, ideologica. Perché anche l’assenza di bias è, in fondo, un bias scelto.
Nessuno può davvero pensare che l’intelligenza artificiale per enti federali sarà neutra. Non esiste neutralità nel codice, esistono solo priorità implementate. E oggi le priorità si chiamano efficienza, controllo, coerenza con la visione politica in carica. Chiamatela automazione, se volete. Ma è molto più vicino a una ristrutturazione epistemica dello Stato.
I dati? Sono il nuovo petrolio. Ma i modelli? Sono la nuova politica estera. E mentre l’Europa balbetta di AI Act e comitati etici, gli Stati Uniti hanno già deciso che i loro modelli saranno ufficialmente autorizzati, forniti da partner fidati, e, se possibile, sintonizzati su frequenze patriottiche. “Ideological bias”? Solo quello che conviene. Il resto è open source. Magari.
Un dettaglio tecnico, apparentemente secondario, chiude il cerchio: la struttura MAS è modulare e scalabile. Il che significa che il numero di fornitori può crescere. Al momento ci sono solo i tre grandi nomi, ma domani potremmo vedere Palantir, IBM, NVIDIA o qualche startup con agganci giusti. È un mercato in piena espansione e chi entra ora, cavalca l’onda prima che diventi uno tsunami regolamentare.
L’intelligenza artificiale per enti federali non è più un’ipotesi. È una realtà codificata, firmata, approvata e contrattualizzata. Google, OpenAI e Anthropic lo sanno bene. E mentre il mondo discute se le AI diventeranno coscienti, loro si prendono una fetta del governo. Con un bel timbro blu in copertina.