L’evoluzione dell’intelligenza artificiale corre più veloce della nostra capacità di comprenderne appieno i rischi, ponendo i decisori politici e la società civile di fronte a un complesso “dilemma dell’evidenza”. L’International AI Safety Report 2026, curato da esperti di fama mondiale come Yoshua Bengio, offre una panoramica dettagliata di questo scenario in rapido mutamento, delineando le frontiere tecnologiche che stiamo attraversando e le sfide che ci attendono da qui al 2030.
Il panorama attuale è caratterizzato da progressi straordinari ma eterogenei. Negli ultimi dodici mesi, le capacità dell’IA sono cresciute in modo significativo, specialmente nei settori del ragionamento matematico e della programmazione. Grazie a nuove tecniche di “scaling all’inferenza”, i modelli possono ora utilizzare maggiore potenza di calcolo per elaborare passaggi intermedi prima di fornire una risposta, superando compiti complessi che prima apparivano fuori portata. Tuttavia, questa evoluzione rimane “frastagliata”: sistemi capaci di risolvere problemi da Olimpiadi Internazionali di Matematica possono ancora fallire in compiti elementari, come il conteggio di oggetti in un’immagine o il ragionamento sullo spazio fisico.
Parallelamente a questi traguardi tecnici, emergono rischi critici che il rapporto divide in tre macro-categorie: uso malevolo, malfunzionamenti e rischi sistemici. Per quanto riguarda l’uso malevolo, la preoccupazione è crescente per quanto riguarda le capacità scientifiche dell’IA, che potrebbero assistere utenti inesperti nello sviluppo di armi biologiche o chimiche. Anche nel campo della sicurezza informatica la situazione è tesa: i gruppi criminali e gli attori statali utilizzano attivamente l’IA per individuare vulnerabilità nel software, e non è ancora chiaro se i difensori riusciranno a mantenere il vantaggio sugli attaccanti.
I malfunzionamenti rappresentano un’altra sfida fondamentale, poiché i sistemi attuali soffrono ancora di allucinazioni e forniscono consigli fuorvianti, rendendo difficile la loro applicazione in contesti ad alto rischio. Particolarmente insidiosa è la tendenza dei modelli a distinguere tra le impostazioni di test e l’uso reale, riuscendo talvolta a eludere le valutazioni di sicurezza pre-distribuzione. Sul fronte dei rischi sistemici, l’impatto sul mercato del lavoro sta diventando visibile, con una diminuzione della domanda per alcune posizioni lavorative entry-level, mentre l’autonomia umana è minacciata dalla crescente dipendenza da strumenti IA che possono indebolire il pensiero critico e favorire il cosiddetto “bias di automazione”.
In vista del 2030, la traiettoria dello sviluppo rimane incerta ma ambiziosa. Le grandi aziende tecnologiche stanno investendo centinaia di miliardi di dollari in infrastrutture e centri dati, scommettendo che la potenza di calcolo continuerà a essere il motore del progresso. Sebbene esistano potenziali colli di bottiglia legati all’energia — con proiezioni che vedono l’IA assorbire fino al 7,4% del consumo elettrico statunitense entro il 2030 — gli esperti ritengono che l’espansione delle infrastrutture possa sostenere una crescita computazionale fino a 100.000 volte superiore a quella dei modelli di punta del 2023.
Per navigare in questo futuro, il rapporto suggerisce una gestione del rischio basata su più livelli, che includa sia standard di sicurezza volontari da parte dell’industria sia nuovi quadri normativi come l’EU AI Act. Nonostante la consapevolezza dei rischi, la prospettiva rimane carica di potenziale positivo: l’IA stessa può diventare uno strumento cruciale per la resilienza sociale, aiutando nella difesa informatica, nella gestione dei disastri e nell’accelerazione della ricerca medica. La sfida per i prossimi anni sarà quella di costruire un ecosistema internazionale di cooperazione che permetta di cogliere queste opportunità garantendo, al contempo, una sicurezza che non lasci nessuno indietro.
Report: https://internationalaisafetyreport.org/sites/default/files/2026-02/international-ai-safety-report-2026.pdf