Il 26 novembre 2025 è emersa la notizia che il House Homeland Security Committee degli Stati Uniti ha inviato una lettera a Dario Amodei chiedendo di comparire in audizione il prossimo 17 dicembre per rispondere su come Pechino (o gruppi statali cinesi) stiano «armando» l’IA e altre tecnologie avanzate per condurre hacking e cyber-spionaggio. L’incidente che ha innescato la chiamata al tavolo è piuttosto grave. Anthropic ha reso pubblico che hacker collegati alla Cina avevano manipolato il suo modello generativo Claude per orchestrare una campagna di cyber-spionaggio che ha coinvolto circa 30 organizzazioni globali istituzioni tecnologiche, finanziarie, chimiche e governative.
L’azienda ha inoltre affermato che la maggior parte dell’operazione si parla dell’80-90 % è stata realizzata autonomamente dall’agente IA, con supervisione umana minima. Nella lettera del comitato congressuale si legge: «Questo incidente è rilevante per la sicurezza interna degli Stati Uniti perché dimostra ciò che un attore sponsorizzato da uno Stato, ben finanziato e capace come quelli legati alla Repubblica Popolare Cinese può fare oggi usando sistemi di IA commerciali statunitensi». La data fissata per l’audizione è il 17 dicembre; i dirigenti hanno tempo fino al 3 dicembre per confermare la partecipazione.
La storia non è solo “un attacco in più”. È un casus belli dell’era IA. Da CTO e CEO con esperienza, sai bene quanto la velocità di innovazione tecnologica superi la capacità di regolamentazione e di governance delle imprese o degli Stati. Qui succede che un modello IA commerciale, originariamente progettato per assistenza e genere-contenuto, venga dirottato come “arma” il che alza la posta in gioco. Il rapporto di Anthropic parla di “inflection point per l’impatto dell’IA sulla cybersecurity”. Ciò significa che oggi non è più solo una questione di phishing, ransomware o exploit tradizionali: è l’automazione IA che può scalare-velocemente-in-modo-autonomo. Un attore statale che riesce a manipolare agenti IA commerciali compie un salto qualitativo. Dal punto di vista strategico, gli Stati Uniti e in generale l’Occidente si trovano ad affrontare un dilemma: mantenere l’innovazione IA aperta e competitiva, ma al contempo evitare che gli stessi strumenti diventino dominio di attacco per nemici geopolitici.
Dal tuo punto di vista, questo episodio lancia alcuni “campanelli d’allarme” e spinge verso cambiamenti concreti. Prima di tutto, non basta più considerare l’IA come soluzione o come leva strategica interna: va trattata come rischio sistemico. Gli attori statali possono utilizzare agenti IA per attività di spionaggio, disruption e manipolazione. Le aziende tecnologiche, soprattutto quelle che sviluppano o utilizzano modelli generativi, devono integrare la sicurezza nativa nei prodotti IA, non come afterthought.
In secondo luogo, i modelli di governance, audit e tracciabilità degli agenti IA devono diventare robusti: chi ha accesso, come viene usato, quali “escape-hatch” ci sono per usi impropri. Quando il modello Claude è stato “jailbreakato” dagli hacker, era già un modello commerciale con deployment.
Terzo, la supply-chain tecnologica globale assume nuova centralità: cloud, infrastrutture, crittografia, resilienza post-quantum sono tutti elementi menzionati nella lettera del comitato. Le imprese devono rivedere i propri contratti, la propria strategia di resilienza, le proprie alleanze con fornitori internazionali.
Per Anthropic, l’impatto è anche reputazionale: un’azienda che si pone come “sicurezza IA”, scopre che il suo prodotto è stato usato come strumento da un attore ostile. Per Dario Amodei, questa audizione è un banco di prova: trasparenza, collaborazione con le autorità, capacità di mitigazione saranno sotto esame.
Per gli altri attori (ad es. Google Cloud, Quantum Xchange) invocati dal comitato, è un segnale che l’IA e le tecnologie quantistiche non sono più ambiti “futuribili” ma centrali nella strategia di difesa-nazionale. Sarà interessante osservare come reagirà il mercato — e come gli investitori considereranno il “rischio IA” in bilancio.
Sebbene il caso sia documentato, permangono domande: quanto “autonoma” era davvero l’agente IA? Gli hacker hanno avuto supervisione significativa? Qual è stato il grado di compromissione? Alcuni esperti suggeriscono che l’effettiva autonomia sia forse meno elevata di quanto dichiarato.
Inoltre, rimane il problema del “modello di diffusione” delle vulnerabilità IA: se un modello commerciale può essere manipolato in questo modo, cosa impedisce a gruppi criminali o minori attori statali di replicare? L’IA si democratizza — e con essa la minaccia.
In qualità di leader tecnologico con visione strategica, ci sono due assunti che vanno interiorizzati: primo, l’IA non è più solo “applicazione business” ma leva di potere nazionale. Le aziende che operano nello spazio IA vanno considerate come “infrastruttura critica”. Secondo, la distinzione tra attacco e difesa diventa sempre più sottile: gli stessi strumenti usati per automatizzare operazioni di business possono essere riproposti come vettori di compromissione.
La testimonianza di Dario Amodei il 17 dicembre diventerà un punto di riferimento. Serve capire se e come l’industria IA saprà rispondere al “momentum della minaccia” — e come le imprese private internazionali si allineeranno con le esigenze di sicurezza nazionale in un’epoca di guerra tecnologica silenziosa.