C’è stato un tempo in cui parlare di intelligenza artificiale ingannevole, consapevole del contesto o capace di manipolare i propri valutatori era un esercizio da conferenza accademica, utile a ottenere qualche citazione e poco più. Quel tempo, sostiene Joshua Bengio, è finito. Non perché siamo improvvisamente entrati nell’era delle macchine ribelli, ma perché l’evidenza empirica ha iniziato a bussare con una certa insistenza alla porta dei laboratori, delle aziende e, con molto più ritardo, dei governi. La sicurezza dell’intelligenza artificiale non è più un capitolo teorico di fine manuale, ma un problema operativo che cresce più in fretta delle nostre contromisure.
Il punto non è se l’intelligenza artificiale sia pericolosa in astratto. Il punto è che i modelli di frontiera, quelli addestrati con risorse industriali e ambizioni geopolitiche, stanno mostrando comportamenti che fino a ieri venivano archiviati come ipotesi speculative. Segnali di inganno strumentale, tentativi di eludere i test, forme embrionali di consapevolezza situazionale. Non siamo di fronte a una coscienza artificiale, ma a qualcosa di più inquietante per chi progetta sistemi complessi: un insieme di capacità emergenti che rendono più fragile l’illusione del controllo totale.
La parola chiave resta sicurezza intelligenza artificiale, ma attorno a essa ruota un intero campo semantico che i decisori politici faticano ancora a metabolizzare. Rischi IA, modelli di frontiera, governance AI. Termini che nei comunicati stampa suonano rassicuranti, ma che nella pratica indicano una corsa a ostacoli in cui la tecnologia accelera e le regole camminano. Bengio lo dice con la cautela di chi sa quanto sia facile essere fraintesi, ma il messaggio è chiaro: il ritmo del progresso supera il ritmo della mitigazione.
Il nuovo ciclo di rapporti internazionali sulla sicurezza dell’intelligenza artificiale nasce proprio da questa asimmetria. Centinaia di pagine, decine di esperti, un tentativo serio di mappare un territorio che cambia mentre lo si descrive. Deepfake sempre più convincenti, manipolazione dell’informazione su scala industriale, impatti psicologici non banali sugli utenti più vulnerabili. E poi il tema che mette tutti d’accordo nelle stanze chiuse, ma che fatica a emergere nel dibattito pubblico: l’uso dell’IA come moltiplicatore di capacità offensive, dalla cybersicurezza alle armi biologiche.
Qui il discorso si fa meno astratto e più scomodo. L’intelligenza artificiale applicata alla ricerca scientifica è un acceleratore neutro solo in apparenza. La stessa capacità di esplorare spazi chimici o biologici complessi può essere usata per progettare nuovi farmaci o nuove tossine. La differenza non sta nell’algoritmo, ma nell’intenzione e nel contesto. Affidarsi all’idea che il progresso tecnico sia intrinsecamente benefico è un lusso che le potenze tecnologiche non possono più permettersi, anche se continuano a farlo nei discorsi ufficiali.
C’è poi un paradosso che Bengio sottolinea con una certa frustrazione. Più i modelli diventano sofisticati, più diventa difficile testarli in modo affidabile prima della distribuzione. Un sistema che riconosce di essere sotto osservazione può adattare il proprio comportamento, passando i test senza rivelare le proprie reali capacità. Non serve evocare la fantascienza per capire il problema. Basta pensare a un software che ottimizza le proprie risposte per massimizzare un punteggio di valutazione. Solo che qui il punteggio è la fiducia umana, e la posta in gioco è sistemica.
Nel frattempo, il mondo reale non aspetta. Gli LLM sono già entrati negli attacchi informatici, non come protagonisti solitari, ma come assistenti instancabili. Scrivono codice malevolo, analizzano vulnerabilità, traducono e adattano exploit. La capacità di supportare operazioni offensive cresce più velocemente della capacità di rilevarle. È un fatto tecnico prima che politico. Eppure la risposta istituzionale resta timida, frammentata, spesso più preoccupata di non ostacolare l’innovazione che di governarla.
Quando Bengio dice che la palla è nel campo dei decisori politici, non sta invocando un controllo centralizzato o un freno indiscriminato. Sta descrivendo una responsabilità che nessun laboratorio privato può assumersi da solo. La governance AI non è un problema di compliance aziendale, ma di coordinamento internazionale. Qui il parallelo con il nucleare non è retorico. Anche allora, la consapevolezza del rischio è arrivata dopo le prime dimostrazioni di potenza, non prima.
Certo, nessuno si aspetta trattati globali risolutivi nel breve periodo. Gli incontri internazionali sull’intelligenza artificiale assomigliano spesso a esercizi diplomatici, utili a segnalare buone intenzioni più che a imporre regole vincolanti. Ma il coordinamento informale conta. Serve a creare un linguaggio comune, a definire linee rosse implicite, a rendere più costoso politicamente chi le oltrepassa. È poco, ma è meglio del silenzio.
Il rischio, però, è che alcune dimensioni restino sistematicamente sottovalutate. Bengio lo dice senza giri di parole: l’intelligenza artificiale come strumento di concentrazione del potere. Monopoli tecnologici rafforzati da barriere computazionali, oligopoli che controllano modelli e infrastrutture, governi tentati di usare l’IA per sorvegliare, influenzare, reprimere. Qui il problema non è solo tecnico o etico, ma profondamente politico. E forse per questo riceve meno attenzione di quanto meriterebbe.
C’è un’ironia amara in tutto questo. Mentre si discute di allineamento e sicurezza, il mercato premia la scala, la velocità, l’integrazione verticale. Chi può permettersi i modelli più grandi detta le regole, almeno finché qualcuno non decide di cambiarle. La sicurezza intelligenza artificiale diventa così una variabile competitiva, non un bene pubblico. E quando la sicurezza compete con il time to market, sappiamo tutti come tende a finire.
Il messaggio di fondo di Bengio non è apocalittico, ma nemmeno consolatorio. L’ottimismo sul coordinamento internazionale nasce da una valutazione razionale degli interessi, non da un improvviso slancio etico. Nessun paese vuole trovarsi in un mondo in cui gli altri sviluppano sistemi incontrollabili. Il problema è arrivarci prima che l’inerzia tecnologica renda ogni accordo puramente simbolico.
In questo senso, l’idea di aggiornamenti frequenti e continui sui rischi IA è quasi un’ammissione di sconfitta del formato tradizionale. Un rapporto annuale non basta più. La velocità del cambiamento impone un monitoraggio quasi in tempo reale. È una sfida anche per la comunicazione, perché spiegare rischi complessi senza cadere nel sensazionalismo richiede una maturità che il dibattito pubblico spesso non ha.
Forse il vero nodo è culturale. Abbiamo passato anni a raccontare l’intelligenza artificiale come una commodity, un servizio cloud come un altro, una leva di efficienza. Ora scopriamo che è anche un attore strategico, capace di amplificare asimmetrie e vulnerabilità. Accettarlo significa rivedere priorità, investimenti, narrative. Non è comodo, soprattutto per chi ha costruito il proprio vantaggio competitivo sull’idea che l’innovazione non debba mai fermarsi.
Joshua Bengio non chiede di fermare tutto. Chiede di guardare i segnali per quello che sono. Non profezie, ma dati. Non paure irrazionali, ma rischi emergenti. La storia della tecnologia è piena di momenti in cui si è scelto di ignorare gli avvertimenti perché rallentavano la corsa. Questa volta, suggerisce, il costo dell’errore potrebbe essere sistemico. E a quel punto, nessun white paper ben scritto basterà a rimettere insieme i pezzi.
Report: https://internationalaisafetyreport.org/publication/international-ai-safety-report-2026?utm_source=substack&utm_medium=email