C’è un momento preciso in cui l’intelligenza artificiale smette di essere una demo ben confezionata per venture capitalist e diventa infrastruttura di Stato. Non è quando scrive poesie migliori degli umani, né quando passa esami di diritto. È quando viene messa tra il cittadino e i suoi diritti. Anthropic, con Claude, ha appena varcato quella soglia entrando in GOV.UK, il cuore operativo dei servizi pubblici britannici. Non un chatbot sperimentale su un sito secondario, ma un assistente destinato a orientare persone reali tra lavoro, formazione, sussidi e scadenze. Tradotto in linguaggio non marketing, se sbaglia, qualcuno perde soldi, opportunità o tempo. Se funziona, cambia il rapporto tra Stato e cittadini.
Il progetto, presentato come pilota, è formalmente innocuo. Un assistente basato su Claude, integrato dentro GOV.UK, focalizzato inizialmente su servizi per l’impiego e la formazione. L’utente fa una domanda, una sola, e l’AI risponde indicando il modulo corretto, il benefit appropriato, il percorso formativo coerente. Sembra banale. In realtà è una compressione estrema della complessità burocratica in un singolo punto decisionale. Qui l’intelligenza artificiale non suggerisce, decide cosa è rilevante. Ed è proprio questo il passaggio critico che molti fingono di non vedere.
Anthropic sottolinea che il controllo resta in mano agli utenti. La memoria dell’assistente è disattivabile, ciò che viene ricordato è sotto il loro controllo, il sistema è progettato per essere trasparente. Tutto vero, sulla carta. Ma chiunque abbia gestito sistemi complessi sa che il problema non è la policy dichiarata, è l’uso reale. Quando un cittadino precario, magari con competenze digitali limitate, si affida a un assistente governativo per sapere cosa fare, quel sistema diventa de facto un’autorità. Non importa quante note legali vengano inserite in fondo alla pagina.
Il Regno Unito incardina il progetto nel modello Scan, Pilot, Scale, una formula elegante per dire osserviamo, testiamo, poi industrializziamo. Il pilota è supportato da valutazioni legate all’AI Safety Institute britannico, l’ente che Londra sta cercando di posizionare come arbitro globale della sicurezza dell’intelligenza artificiale. Anche questo, sulla carta, è rassicurante. Nella pratica, introduce un’altra tensione. Lo stesso Stato che vuole essere regolatore globale affida funzioni critiche a una startup americana finanziata da big tech e fondi privati. Non è una contraddizione accidentale, è il modello di governance occidentale dell’AI nel 2026.
Il rischio operativo è evidente e dichiarato persino nei documenti ufficiali. Un assistente progettato per rispondere a domande sul lavoro può fornire risposte errate con grande sicurezza. Può dare indicazioni incoerenti a utenti simili. Può interpretare in modo sbagliato una domanda ambigua e portare una persona fuori strada. Questo non è un bug marginale, è una proprietà strutturale dei modelli linguistici. Non ragionano, stimano. E quando stimano male in un contesto burocratico, l’errore non è teorico, è amministrativo.
Qui entra in gioco la dimensione politica. L’accordo con Anthropic arriva pochi giorni dopo che il CEO dell’azienda ha pubblicamente invitato governi e cittadini a prendere coscienza dei rischi dell’intelligenza artificiale avanzata. Un messaggio responsabile, apparentemente. Ma che suona diverso quando la stessa azienda ottiene accesso diretto ai sistemi informativi di uno Stato. La consapevolezza del rischio diventa parte della narrazione che legittima l’adozione controllata, non una ragione per rallentare.
Nel frattempo, i ministri britannici hanno accettato un finanziamento da un milione di dollari da Meta per sostenere quattro esperti di intelligenza artificiale coordinati dall’Alan Turing Institute. Il dettaglio interessante non è l’importo, modesto per gli standard della Silicon Valley, ma il timing. Il finanziamento arriva durante una consultazione pubblica su un possibile divieto dei social media per i minori di 16 anni, una misura che colpirebbe direttamente piattaforme come Instagram. Chi ha esperienza di regolazione sa che non serve dimostrare un conflitto di interessi esplicito. Basta creare un contesto di interdipendenza.
Il Regno Unito sta cercando di costruire un’identità precisa. Vuole essere il Paese dove l’intelligenza artificiale viene adottata presto, integrata nei servizi pubblici, ma anche valutata, misurata, resa sicura. Una specie di Singapore con accento oxfordiano. Il problema è che questa ambizione si appoggia sulle stesse aziende che dovrebbero essere oggetto di controllo. Anthropic, Meta, OpenAI, Google. Tutti partner, tutti stakeholder, tutti potenzialmente regolati. È una danza complessa, e non sempre chi conduce è lo Stato.
Dal punto di vista strategico, il contratto assegnato ad Anthropic è raro non per il valore economico, ma per la posizione sistemica. Inserire Claude in GOV.UK significa entrare nel flusso decisionale quotidiano di milioni di cittadini. Significa raccogliere dati comportamentali di altissimo valore, anche se anonimizzati. Significa addestrare indirettamente il modello su casi d’uso reali, non simulati. Per una società di intelligenza artificiale, è oro puro. Per uno Stato, è una scommessa asimmetrica.
C’è poi un aspetto culturale che merita attenzione. La burocrazia, per quanto odiata, è anche un sistema di frizioni intenzionali. Le scadenze, i moduli, i passaggi multipli servono a distribuire responsabilità, non solo a complicare la vita. Un assistente AI che promette di semplificare tutto rischia di eliminare anche quelle frizioni che proteggono il cittadino da errori irreversibili. Se l’AI suggerisce un percorso sbagliato, chi se ne assume la responsabilità. L’utente, l’azienda, il ministero. La risposta, oggi, è nebulosa.
Anthropic sta giocando una partita sofisticata. Mentre altri competitor si concentrano su enterprise, coding o creatività, Claude entra nel settore pubblico, il più lento, il più regolato, ma anche il più legittimante. Se funziona nel governo britannico, può funzionare ovunque. Se fallisce, il fallimento può essere raccontato come un problema di implementazione, non di modello. È una strategia che ricorda più IBM che una startup californiana, e non è un caso.
Il Regno Unito, dal canto suo, manda un segnale chiaro all’Europa. Non aspetteremo che il regolamento sia perfetto. Non aspetteremo che l’AI Act sia completamente digerito. Sperimentiamo ora, regoliamo in parallelo. È una filosofia che può generare vantaggi competitivi, ma anche incidenti istituzionali. La storia dell’innovazione pubblica è piena di progetti pilota che diventano permanenti senza mai essere davvero compresi.
In filigrana, c’è una domanda più ampia. Vogliamo che l’intelligenza artificiale diventi l’interfaccia primaria dello Stato. Vogliamo che la cittadinanza passi attraverso un modello linguistico addestrato da un’azienda privata. Vogliamo che la velocità sostituisca la deliberazione. Il Regno Unito sembra rispondere di sì, con prudenza dichiarata e audacia implicita. Altri Paesi osservano, prendono appunti, e aspettano di vedere dove cadrà il primo errore grave.
La verità, meno elegante ma più utile, è che questo esperimento non riguarda solo Anthropic o GOV.UK. Riguarda il futuro della sovranità digitale. Chi controlla l’intelligenza che spiega allo Stato come parlare ai cittadini controlla una parte rilevante del potere. Non serve essere complottisti per capirlo, basta aver gestito sistemi complessi per qualche decennio. E in questo gioco, nessun pilota è davvero solo un pilota.