La mossa di Anthropic di aggiornare la propria policy d’uso di Claude è un segnale chiaro di come il settore AI stia entrando nella fase in cui la narrativa della “potenza creativa” è ormai indissolubilmente legata alla narrativa della “potenza distruttiva”. Chi si aspettava un documento tecnico anodino ha trovato invece un testo che, tra le righe, fa capire come l’azienda stia cercando di blindare il perimetro operativo della sua intelligenza artificiale in un contesto di crescente paranoia geopolitica e cyber. La vecchia formula, generica e un po’ da manuale, che vietava a Claude di “produrre, modificare, progettare, commercializzare o distribuire armi, esplosivi, materiali pericolosi o altri sistemi progettati per causare danni o perdita di vite umane” è stata sostituita da un elenco chirurgico, quasi clinico, dei peggiori incubi della sicurezza internazionale: esplosivi ad alto rendimento, armi biologiche, nucleari, chimiche e radiologiche. Nessun margine interpretativo, nessuna zona grigia, come se si volesse rendere inoppugnabile la linea rossa per un eventuale audit normativo.