Lunedì, a New York, è successo qualcosa che i cronisti di tecnologia definirebbero storico e i cinici chiamerebbero una dichiarazione d’intenti senza denti. Più di duecento personalità globali, tra ex capi di Stato, premi Nobel, scienziati e figure di spicco del settore tecnologico, hanno firmato il cosiddetto Global Call for AI Red Lines. Il nome suona solenne, quasi hollywoodiano, ma il cuore dell’iniziativa è semplice: definire entro il 2026 delle red lines per l’intelligenza artificiale, confini invalicabili che nessun sistema dovrebbe oltrepassare. In altre parole, se non possiamo ancora metterci d’accordo su cosa vogliamo fare con l’AI, almeno possiamo chiarire cosa non deve mai fare. È il minimo sindacale, ma anche il massimo che le diplomazie globali sembrano in grado di produrre al momento.
Il parterre è impressionante: Geoffrey Hinton, il “padrino dell’AI” che ha lasciato Google per lanciare allarmi, Yoshua Bengio che da anni predica prudenza, Ian Goodfellow con la sua fama di inventore delle GAN, Wojciech Zaremba di OpenAI, Jason Clinton di Anthropic. A fianco dei tecnologi, dieci premi Nobel di varie discipline, dall’economia alla biologia, compreso Giorgio Parisi e Jennifer Doudna, fino a voci come Daron Acemoglu che ricordano che l’AI non è solo un tema tecnico ma un terremoto socioeconomico. Sul fronte politico, ex leader come Juan Manuel Santos, Mary Robinson, Enrico Letta. In totale, un mosaico che mette insieme idealismo accademico e pragmatismo geopolitico. Sulla carta, un’alleanza formidabile. Nella realtà, un fragile esercizio di diplomazia preventiva.
Il documento non si limita a evocare principi vaghi ma avanza proposte concrete. Le red lines dovrebbero proibire l’uso dell’AI per impersonare un essere umano senza disclosure, la capacità di auto-replicarsi fuori dal controllo umano, il comando di armi nucleari, lo sviluppo e la diffusione di armi autonome letali, le pratiche di sorveglianza di massa e social scoring, gli attacchi cibernetici automatizzati. In sostanza, tutto ciò che ricorda la distopia di Black Mirror unita al peggio della Guerra Fredda. Il problema è che ognuno di questi punti, una volta messo alla prova sul piano tecnico e giuridico, si trasforma in un campo minato semantico. Cosa significa esattamente autoriproduzione? Quando un sistema che genera codice o modelli più avanzati di sé stesso supera la linea rossa? E un’arma autonoma letale è un drone che seleziona e colpisce un target senza supervisione, o basta il supporto decisionale a un ufficiale militare per trasformarla in uno scenario grigio?
Le organizzazioni promotrici non sono sigle minori: CeSIA, il French Center for AI Safety, The Future Society e il Center for Human-Compatible AI di Berkeley. Hanno scelto come palcoscenico l’80ª Assemblea Generale delle Nazioni Unite, consapevoli che il teatro conta quanto il messaggio. Maria Ressa, Nobel per la Pace, ha citato l’iniziativa nei suoi interventi iniziali, legando il tema delle red lines per l’intelligenza artificiale alla necessità di “porre fine all’impunità di Big Tech attraverso la responsabilità globale”. Il richiamo è chiaro: non si tratta solo di tecnologia ma di potere, di accountability, di un ecosistema economico che ha finora prosperato in una deregulation quasi assoluta.
Qualcuno potrebbe obiettare che regolamentazioni esistono già. L’Unione Europea con l’AI Act ha stabilito che certi usi siano “inaccettabili” e dunque vietati, dagli algoritmi di manipolazione cognitiva ai sistemi di social scoring in stile cinese. Il problema è che queste misure hanno una giurisdizione regionale e un’applicazione che dipende dalla capacità di enforcement dei singoli Stati membri. Fuori dall’UE, regna il far west normativo. Negli Stati Uniti, il dibattito è polarizzato tra chi invoca innovazione senza freni e chi teme rischi esistenziali. La Cina ha introdotto regolamentazioni severe su deepfake e algoritmi di raccomandazione, ma con finalità più politiche che di sicurezza globale. E quanto alla frase secondo cui USA e Cina avrebbero un accordo per lasciare sempre il controllo nucleare in mani umane, diciamolo con franchezza: non esiste nessun trattato formale che lo sancisca. È un auspicio, non un impegno vincolante. Ed è proprio questa ambiguità a dimostrare perché un’iniziativa come questa cerca ossessivamente il timbro delle Nazioni Unite.
Il cuore della questione non è se possiamo scrivere linee guida etiche o red lines suggestive, ma se possiamo creare un meccanismo globale di enforcement. Niki Iliadis della Future Society lo ha detto chiaramente: i “voluntary pledges”, le promesse volontarie delle big tech, non bastano più. Servono istituzioni indipendenti, con veri poteri sanzionatori, in grado di verificare e imporre limiti. Non il solito comitato di esperti che produce report annuali, ma un’agenzia internazionale con denti affilati, capace di entrare nei laboratori delle aziende e dire: questo modello non potete rilasciarlo, punto. Naturalmente, è qui che i sorrisi diplomatici si trasformano in gelide strette di mano: quale governo accetterebbe di cedere sovranità tecnologica a un organismo sovranazionale? E quale azienda miliardaria rinuncerebbe al vantaggio competitivo in nome di un bene comune così astratto?
Stuart Russell, uno dei massimi esperti di intelligenza artificiale a Berkeley, ha lanciato una provocazione durante il briefing: se non siete sicuri di poter rendere sicura l’AGI, non costruite l’AGI. Sembra ovvio, ma è rivoluzionario. È come dire che gli ingegneri nucleari hanno aspettato di capire come evitare esplosioni incontrollate prima di costruire centrali. Perché l’industria dell’AI dovrebbe meritare un’eccezione? Russell ha liquidato come nonsense la dicotomia secondo cui per avere diagnostica medica avanzata dobbiamo accettare anche il rischio di AGI fuori controllo. La narrativa della “crescita a ogni costo” è diventata la giustificazione perfetta per bypassare interrogativi etici e rischi esistenziali. Ma la verità è che innovazione e sicurezza non sono un gioco a somma zero. Servono solo più disciplina, più pazienza e meno storytelling da conferenza stampa.
Il paradosso è che l’intelligenza artificiale è già oggi un fenomeno globale, distribuito e interconnesso, mentre la governance globale resta un’utopia. Ci sono già modelli diffusi open source che possono essere manipolati per generare malware, deepfake indistinguibili da realtà o sistemi di sorveglianza invasivi. Stabilire red lines su carta mentre il codice corre libero su GitHub è un esercizio di filosofia politica più che di reale contenimento. Ma ogni processo normativo ha sempre iniziato con dichiarazioni solenni: le convenzioni sulle armi chimiche e biologiche non sono nate in laboratorio ma da summit internazionali. La domanda è se saremo capaci di passare dalla retorica alla pratica prima che accada l’incidente catastrofico che tutti fingono di voler evitare.
Le red lines per l’intelligenza artificiale non sono un freno allo sviluppo economico come ripetono i soliti lobbisti travestiti da visionari. Al contrario, possono essere il prerequisito per una crescita sostenibile, perché senza fiducia collettiva nessuna tecnologia scala davvero. Chi oggi immagina di monetizzare modelli sempre più potenti senza preoccuparsi della loro sicurezza, domani scoprirà che l’opinione pubblica e i governi non saranno così indulgenti. La governance globale AI non è un optional, è la condizione stessa perché l’AI resti uno strumento al servizio della civiltà e non un acceleratore di caos.
Il tempo è poco, il 2026 non è un orizzonte lontano. Due anni in politica internazionale sono un battito di ciglia. Ma se non saremo capaci di definire almeno queste red lines, potremo smettere di illuderci che il mondo abbia imparato qualcosa dall’esperienza nucleare. L’AI non esploderà fisicamente, ma potrà minare i pilastri stessi della convivenza democratica, economica e sociale. La differenza è che non ci sarà bisogno di un bottone rosso per attivarla: basterà la nostra indifferenza.