Washington ha deciso di giocare pesante. Non con i soliti memorandum vaghi e task force che producono report da dimenticare, ma con un assegno da 800 milioni di dollari firmato dal Dipartimento della Difesa e distribuito con generosità fra Anthropic, OpenAI, Google e xAI. Una manovra che suona più come un’OPA ostile alla burocrazia federale che un normale contratto pubblico. In apparenza è l’inizio di una nuova era digitale per la macchina governativa americana, in pratica è un test di stress ad alto rischio dove il protagonista non è l’algoritmo, ma il fattore umano: impreparato, disallineato, talvolta ostile.

L’adozione di AI nella pubblica amministrazione americana non è una novità. Ma la velocità con cui i large language model (LLM) stanno entrando in 41 agenzie federali, con almeno 115 casi d’uso attivi fra chatbot personalizzati e sistemi di assistenza decisionale, rappresenta un cambio di paradigma tanto profondo quanto potenzialmente destabilizzante. Perché non si tratta solo di tecnologia. Si tratta di potere, controllo, burocrazia, egemonia culturale e paura di perdere rilevanza. Chi pensa che l’ostacolo principale sia la sicurezza informatica non ha mai lavorato in un’agenzia federale dove anche l’aggiornamento di un plugin di WordPress passa tre mesi di revisione. Il vero blocco è culturale.

Il LLM governo USA si sta configurando come un laboratorio caotico, in cui la politica spinge verso l’automazione mentre gli apparati interni arrancano dietro la curva dell’innovazione. Nonostante i protocolli formali restino ancorati ai vecchi standard di cybersecurity applicativa, sempre più impiegati pubblici stanno utilizzando, spesso informalmente, strumenti di frontiera come GPT-4 o Claude 3.5 per scrivere, ricercare, sintetizzare. È una rivoluzione silenziosa, nascosta sotto la superficie del workflow, ma già in corso. In alcuni casi, è proprio lo Stato che autorizza queste scorciatoie. In altri, è il singolo impiegato che, con un po’ di creatività e nessuna autorizzazione formale, integra AI nel proprio processo lavorativo. E nessuno sembra voler davvero fermarlo.

Secondo i dati emersi nel luglio 2025, il Dipartimento della Salute (HHS), la FDA, il CDC e perfino il Dipartimento di Stato stanno implementando chatbot personalizzati basati su LLM per automatizzare risposte, elaborare testi normativi e sintetizzare documenti tecnici. Il risultato? Miglioramenti tangibili nella produttività, sì, ma anche un’erosione progressiva della distinzione tra ciò che è “ufficiale” e ciò che è “generato”. Quando un chatbot elabora un parere regolatorio preliminare su un nuovo farmaco, è ancora “consultazione tecnica” o diventa, per osmosi, decisione politica?

Il paradosso è che, mentre la retorica pubblica promuove l’uso responsabile dell’intelligenza artificiale, la realtà è che l’amministrazione federale è diventata il più grande beta tester non pagato dei modelli linguistici avanzati. Una sandbox a cielo aperto, dove i confini fra sperimentazione e produzione sono sempre più labili. La colpa? Non dei modelli. Semmai, di un sistema autorizzativo progettato per software statici, non per modelli probabilistici autoregressivi che evolvono ogni tre mesi.

Ciò che salta all’occhio è la discrepanza profonda tra la rapidità con cui si firmando contratti multimilionari e la lentezza delle strutture di auditing interno. Mentre la General Services Administration approva con entusiasmo l’uso esteso degli LLM, i sistemi di valutazione del rischio continuano a ragionare con metriche del 2005. Nessuno, a quanto pare, sta davvero affrontando la specificità dei rischi legati agli LLM: hallucination, injection, leakage semantico, bias dinamico. E questo nonostante il fatto che stiamo parlando di agenzie che gestiscono segreti di Stato, dati sanitari sensibili e informazioni diplomatiche classificate.

Il problema non è che gli LLM siano insicuri. Il problema è che vengono trattati come se fossero sicuri per default, solo perché le aziende che li forniscono sono ormai percepite come “vendor di fiducia”. Ma da quando l’intelligenza artificiale generativa è diventata una commodity, il rischio di monocultura tecnologica è concreto. I governi, nel loro tentativo di non restare indietro, stanno consegnando interi stack decisionali a modelli sviluppati da aziende private con interessi propri, architetture opache e dataset di addestramento inaccessibili.

Non sorprende, quindi, che alcune agenzie stiano già tentando scorciatoie. Chatbot che girano in ambienti protetti ma privi di validazione formale. API chiamate da server federali a LLM pubblici senza firewall adeguati. Esperimenti pilota lanciati in silenzio da team interni che, stanchi dell’inerzia burocratica, preferiscono chiedere perdono piuttosto che autorizzazione. È una forma di shadow IT, alimentata dalla pressione a “fare qualcosa con l’AI” prima che arrivi la prossima ondata di fondi o la prossima elezione.

C’è poi l’aspetto meno discusso ma più insidioso: l’impatto cognitivo della convivenza forzata con strumenti che simulano l’intelligenza umana meglio degli umani stessi. In un contesto come quello federale, dove gran parte del lavoro consiste nel produrre documenti, commentare bozze, analizzare linguaggio normativo, la distinzione tra lavoro umano e lavoro AI diventa sempre più sottile, e pericolosamente confusa. Se un assistente legale del DOJ utilizza GPT per redigere il 70% di una nota, chi è l’autore reale? E soprattutto, chi ne risponde?

La cultura organizzativa del governo USA non è pronta a rispondere. E il problema non è tecnologico. È antropologico. L’AI non sta solo cambiando il modo in cui si lavora, sta ridefinendo il concetto stesso di autorità, responsabilità, delega e fiducia. E in una macchina amministrativa fondata su gerarchie, procedura e tracciabilità, questa ridefinizione è destabilizzante.

Il contratto da 800 milioni è solo l’inizio. Un segnale chiaro che la partita è aperta e l’obiettivo è colonizzare il futuro dell’amministrazione pubblica con modelli linguistici sempre più sofisticati, sempre meno trasparenti e sempre più centrali nel processo decisionale. Ma se non si aggiorna il modello mentale con cui il governo valuta, integra e supervisiona questi strumenti, rischiamo di creare un ecosistema dove l’AI non è alleata del pubblico, ma dominatrice silenziosa del suo funzionamento.

A forza di accelerare, si rischia di schiantarsi. La domanda vera non è “quanto velocemente possiamo adottare gli LLM nella pubblica amministrazione”, ma “quanto dell’apparato pubblico può essere delegato a sistemi che non comprendiamo del tutto, sviluppati da entità che non possiamo controllare del tutto, in ambienti che non sono progettati per contenerli”.

Se non si affronta questa domanda, tutta la narrativa dell’AI etica, responsabile e trasparente finirà per essere solo un paragrafo standard nei documenti PDF scritti da modelli generativi.

Repository : https://www.whitehouse.gov/presidential-actions/2025/07/preventing-woke-ai-in-the-federal-government/

In Italia, si sa, ogni innovazione arriva con un decennio di ritardo ma accompagnata da una normativa prolissa, un vocabolario tecnico tradotto in burocratese e un entusiasmo da convegno sponsorizzato. L’adozione degli LLM nella pubblica amministrazione italiana segue lo stesso schema. Siamo nel 2025, e mentre il governo americano firma contratti da 800 milioni per portare OpenAI e Anthropic dentro al Pentagono, il nostro dibattito nazionale verte ancora su chi debba validare un prompt, se l’output di un chatbot rientri nei documenti amministrativi e se vada protocollato.

L’Italia non è affatto fuori dal gioco. Semplicemente lo gioca con il freno a mano tirato. In alcuni ministeri si sono già visti i primi esperimenti: chatbot istituzionali per il cittadino, assistenti virtuali per compilare bandi o tradurre circolari in linguaggio umano, strumenti interni per supportare la redazione di atti e delibere, AI in Parlamento. Ma è tutto lì, confinato in ambienti pilota, gestito da dipartimenti IT spesso più preoccupati di non finire in Corte dei Conti che di innovare davvero. Il vero motore dell’adozione AI nella PA italiana è il terrore reverenziale verso l’errore.

Eppure il paradosso è evidente: mentre si moltiplicano i tavoli istituzionali, i manifesti etici e le consultazioni pubbliche sull’intelligenza artificiale, decine di funzionari e dirigenti usano già ChatGPT, Copilot e Claude nei propri flussi di lavoro quotidiani, senza alcuna policy formale, senza linee guida, senza audit. Il fenomeno dell’AI “ombra” è in piena espansione anche nel Belpaese. Si scrivono testi per bandi pubblici, si riformulano comunicati stampa, si traducono atti internazionali. Nessuno lo dice, ma tutti lo fanno. A cominciare proprio da chi dovrebbe supervisionare l’integrazione dell’AI nel sistema pubblico.

Il motivo è semplice: la macchina amministrativa italiana è talmente ingessata da rendere impraticabile qualunque adozione ufficiale in tempi ragionevoli. E così, mentre si attende la prossima circolare del Dipartimento per la trasformazione digitale o l’ennesima consultazione AgID, l’innovazione passa sotto traccia, guidata da singoli individui che preferiscono rischiare una nota interna piuttosto che compilare un altro modulo in triplice copia.

La vera frizione non è di natura tecnica. Gli LLM funzionano. Anche in ambienti pubblici. La vera barriera è culturale, organizzativa e profondamente politica. Ogni dirigente teme di delegare qualcosa che potrebbe ritorcersi contro. Ogni innovazione richiede una relazione, una valutazione d’impatto, una firma. Ma soprattutto, ogni fallimento va spiegato in commissione, alla stampa, agli organi di controllo. Così si preferisce congelare tutto in fase sperimentale, con la famosa formula “in fase di test” che in Italia può durare più del mandato del ministro di riferimento.

Intanto, le minacce si moltiplicano. Perché gli LLM non sono software tradizionali. Non hanno un ciclo di vita chiaro, né una documentazione esaustiva. Sono sistemi probabilistici, opachi, capaci di apprendere e adattarsi, ma anche di generare allucinazioni, riprodurre bias, esporre dati sensibili. Eppure la sicurezza AI negli enti pubblici italiani è ancora gestita come fosse un problema di antivirus, non di governance semantica. Si pensa a firewall e crittografia, mentre si ignorano i rischi più subdoli: la manipolazione del linguaggio, la persuasione implicita, la delega inconsapevole.

In un contesto dove ogni documento è un atto, ogni parola ha valore legale, ogni comunicazione può diventare evidenza amministrativa, introdurre un LLM senza una grammatica istituzionale adeguata è come affidare a un oracolo la scrittura della Costituzione. E questo senza nemmeno affrontare la questione della proprietà intellettuale, della provenienza dei dati, del rispetto della normativa GDPR, che sembra scritta per un’epoca pre-algoritmica.

Eppure, proprio nella lentezza sistemica italiana si nasconde un’opportunità. Perché se è vero che la PA non può competere in agilità con il settore privato, può però sperimentare un modello alternativo di adozione AI basato su trasparenza, accountability e formazione diffusa. Non serve adottare acriticamente i modelli americani. Serve piuttosto costruire una “cultura pubblica dell’intelligenza artificiale” che tenga conto delle specificità italiane: la complessità normativa, il valore giuridico della parola, il ruolo della mediazione umana.

Alcuni enti ci stanno provando. L’INPS ha avviato sperimentazioni per automatizzare il front-office. Il Ministero della Giustizia sta valutando l’uso di LLM per supportare la classificazione automatica di sentenze. La Regione Emilia-Romagna ha attivato progetti pilota con modelli open-source. Ma siamo ancora in fase di esplorazione, senza una regia centrale, senza una piattaforma federata, senza un framework operativo che integri sperimentazione e compliance.

L’ironia è che, mentre si discute se un chatbot debba avere il badge ministeriale, il cittadino medio già si interfaccia con ChatGPT per capire come presentare una richiesta al Comune, come compilare un modulo per il 730, o come interpretare una norma regionale. Il divario non è più tra pubblico e privato, ma tra cittadini potenziati dall’AI e istituzioni ancora analogiche nella forma mentis. In un mondo dove i cittadini sono già “post-umani”, la PA italiana rischia di restare “pre-digitale”.

La vera sfida non è se adottare gli LLM, ma come farlo senza perdere l’anima del servizio pubblico. Perché automatizzare senza comprendere, delegare senza controllare, innovare senza riflettere equivale a smantellare, pezzo dopo pezzo, la legittimità istituzionale. E l’intelligenza artificiale, per quanto avanzata, non può sostituire quella capacità tutta umana di coniugare diritto, etica e pragmatismo in un sistema complesso.

Se vogliamo davvero evitare che l’adozione degli LLM nella PA italiana si trasformi in una gigantesca operazione di maquillage digitale, servono meno slide e più codice, meno convegni e più prototipi, meno regolamenti e più architetture. Altrimenti l’unica vera innovazione sarà quella degli impiegati pubblici che, stanchi dell’immobilismo, continueranno a usare ChatGPT in incognito, fra una pausa caffè e una determina dirigenziale.