La mossa di Anthropic di aggiornare la propria policy d’uso di Claude è un segnale chiaro di come il settore AI stia entrando nella fase in cui la narrativa della “potenza creativa” è ormai indissolubilmente legata alla narrativa della “potenza distruttiva”. Chi si aspettava un documento tecnico anodino ha trovato invece un testo che, tra le righe, fa capire come l’azienda stia cercando di blindare il perimetro operativo della sua intelligenza artificiale in un contesto di crescente paranoia geopolitica e cyber. La vecchia formula, generica e un po’ da manuale, che vietava a Claude di “produrre, modificare, progettare, commercializzare o distribuire armi, esplosivi, materiali pericolosi o altri sistemi progettati per causare danni o perdita di vite umane” è stata sostituita da un elenco chirurgico, quasi clinico, dei peggiori incubi della sicurezza internazionale: esplosivi ad alto rendimento, armi biologiche, nucleari, chimiche e radiologiche. Nessun margine interpretativo, nessuna zona grigia, come se si volesse rendere inoppugnabile la linea rossa per un eventuale audit normativo.
Questa puntualizzazione non è arrivata in un vuoto normativo ma in un momento in cui Anthropic ha introdotto il livello di protezione “AI Safety Level 3” insieme al lancio di Claude Opus 4, il modello di punta. È un’architettura di difesa che ha il duplice obiettivo di rendere più arduo il jailbreak e di neutralizzare preventivamente qualsiasi tentativo di sfruttare il modello per lo sviluppo di tecnologie CBRN. In un certo senso, è come se Anthropic avesse montato blindature da carro armato su una macchina sportiva: il potenziale è sempre lì, ma la superficie d’attacco si restringe drasticamente.
L’azienda non si limita però a parlare di armi fisiche. Il nuovo capitolo “Do Not Compromise Computer or Network Systems” è un manifesto di cyberigiene forzata: divieto assoluto di usare Claude per individuare o sfruttare vulnerabilità, produrre o diffondere malware, sviluppare strumenti per attacchi DDoS o condurre offensive digitali su larga scala. La vera novità sta nel riconoscimento esplicito dei rischi legati agli strumenti di AI agentica, come “Computer Use” — che consente a Claude di prendere il controllo di un computer — e “Claude Code”, che lo innesta direttamente nel terminale di uno sviluppatore. È la prima volta che Anthropic ammette pubblicamente che certe funzioni, pur concepite per aumentare la produttività, abbiano un potenziale di abuso su scala industriale. Tradotto: la linea tra “assistente AI” e “hacker semi-autonomo” è più sottile di quanto piacerebbe ammettere in un comunicato stampa.
Curiosamente, mentre stringe le maglie sulla sicurezza, Anthropic allenta quelle sulla politica. Se prima ogni contenuto legato a campagne elettorali o attività di lobbying era vietato, ora il divieto vale solo per usi “ingannevoli o dirompenti per i processi democratici” o che riguardino il targeting di elettori e campagne. Un compromesso pragmatico che suona quasi come un messaggio agli operatori del settore: l’AI può ancora avere un ruolo nel dibattito politico, purché non si trasformi in un’arma di disinformazione chirurgica. E il chiarimento sui “casi d’uso ad alto rischio” — con requisiti applicabili solo a scenari consumer e non B2B — sembra un gesto studiato per rassicurare le aziende che vogliono integrare Claude nei loro processi senza sentirsi intrappolate in un labirinto di compliance.
Il risultato complessivo è un documento che, più che un regolamento interno, somiglia a un pezzo di diplomazia preventiva: un modo per mostrarsi “responsabili” agli occhi dei legislatori e dei partner istituzionali, senza soffocare del tutto le potenzialità commerciali del prodotto. È una strategia che, letta tra le righe, ammette che la partita dell’AI di frontiera non si gioca più solo sul terreno della capacità di calcolo o della creatività generativa, ma su quello della credibilità etica e della resilienza operativa. Chi riesce a convincere governi e corporate di poter erogare potenza computazionale senza rischi collaterali ha già mezzo piede sul podio. Chi non ci riesce rischia di scoprire che il mercato non ha più pazienza per i geni indisciplinati.