Il mondo sembra impazzito all’idea di una superintelligenza artificiale fuori controllo, e ieri l’ennesimo appello catastrofista ha fatto il giro dei media. Il Future of Life Institute ha lanciato una lettera aperta firmata da Nobel, esperti di sicurezza nazionale, ricercatori AI, attori e musicisti, tutti uniti sotto il vessillo di un divieto globale per la superintelligenza artificiale fino a quando non sarà “affidabilmente sicura e controllabile, con consenso pubblico”.

Tradotto: non aprite l’armadietto della bestia finché non avete il fermoporta adeguato. I firmatari includono nomi eclettici quanto improbabili: Joseph Gordon‑Levitt, will.i.am, Geoffrey Hinton, Richard Branson e persino Steve Wozniak. L’idea di portare un attore di Hollywood e un musicista pop al tavolo della regolamentazione globale fa sorridere, ma è anche geniale nella sua capacità di generare attenzione mediatica immediata.

Il concetto di “superintelligenza artificiale” è tutt’altro che chiaro. Nessuno sa quando, se mai, vedremo una macchina capace di superare l’intelligenza umana in tutte le capacità cognitive. L’appello non fa distinzione tra modelli attuali come GPT‑4 e future architetture ipotetiche. La narrativa, però, è potente: evoca paura e urgenza, strumenti perfetti per spostare l’agenda pubblica e politica. Il problema non è tecnico, ma culturale. Chi firma oggi per fermare un’AI immaginaria potrebbe domani essere accusato di terrorismo tecnologico o di sabotare l’innovazione. Il confine tra precauzione e paranoia è sottile, e la linea editoriale del Future of Life Institute gioca proprio su questo equilibrio.

Storicamente, questo tipo di appelli non è una novità. Già nel 2023 il medesimo istituto aveva proposto di pausare gli esperimenti con AI di nuova generazione più potenti di GPT‑4. L’iniziativa raccolse decine di migliaia di firme, da Yoshua Bengio a Elon Musk, passando per Steve Wozniak. Molti firmarono per ragioni pragmatiche: attirare attenzione sull’urgenza del problema, non perché fossero convinti di un’apocalisse imminente. Il nuovo appello non chiede più una pausa temporanea, ma un divieto fino a condizioni di sicurezza verificate e consenso pubblico. Tradotto in pratica, significa fermare qualsiasi sviluppo innovativo che superi una definizione vaga di “superintelligenza”.

Il divieto globale pone problemi enormi. Chi decide cosa è “superintelligente”? Chi certifica che un sistema sia affidabile e sicuro? Le grandi aziende tecnologiche hanno risorse enormi e potrebbero aggirare qualsiasi regolamentazione, mentre i piccoli laboratori verrebbero paralizzati. Il rischio di creare una barriera artificiale all’innovazione, che favorisce pochi attori dominanti, è altissimo. Il consenso pubblico poi è un concetto teorico: come si comunica la complessità di modelli AI avanzati a chi non ha formazione tecnica? La retorica del consenso è perfetta per legittimare interventi top‑down, ma rischia di bloccare progetti utili e trasparenti.

Tecnicamente, cosa intendiamo per superintelligenza? È un confine mobile e flessibile. Oggi un modello che supera l’uomo in alcuni compiti specifici può già cadere sotto questa definizione. Domani, quando saranno disponibili sistemi con capacità di ragionamento generale, il dibattito si accenderà di nuovo, ma con leggi e regolamentazioni probabilmente obsolete. La narrativa apocalittica permette di imporre una cautela estrema prima che esista una reale minaccia. È un gioco di percezione, non di matematica.

Il ruolo mediatico dei firmatari è cruciale. La presenza di celebrity come Gordon‑Levitt o will.i.am conferisce un alone di spettacolarizzazione che amplifica la notizia su scala globale. Il principio è semplice: più il messaggio è condiviso e emotivamente carico, maggiore la pressione sui politici. È manipolazione emozionale applicata alla tecnologia, con l’aggiunta di citazioni autorevoli come Geoffrey Hinton per dare sostanza scientifica. Ironia della sorte, questa strategia funziona meglio che qualsiasi dibattito tecnico.

Se guardiamo alle politiche globali, la proposta si scontra con realtà legislative già in corso. L’UE sta discutendo un regolamento sull’intelligenza artificiale che stabilisce criteri di rischio, trasparenza e responsabilità, senza imporre divieti assoluti. Gli Stati Uniti, al contrario, hanno un approccio più frammentario, basato su linee guida volontarie e incentivi fiscali. Applicare un divieto globale richiederebbe accordi internazionali quasi impossibili da verificare. Il rischio di fughe di innovazione verso mercati meno regolati è concreto.

Il messaggio subliminale della lettera è chiaro: “Siamo tutti d’accordo che il futuro potrebbe essere pericoloso, ma fidatevi di noi per definirne i limiti”. Questa tattica funziona anche come deterrente psicologico: chiunque osi ignorare l’appello rischia di essere accusato di negligenza morale. La lettera diventa così uno strumento di pressione culturale più che normativa, un’arma di agenda setting. La politica dell’innovazione non si misura solo in legge, ma anche in percezione pubblica.

Non mancano elementi ironici. Un attore di Hollywood e un musicista che chiedono il divieto della superintelligenza fanno sorridere, ma riflettono il cambiamento radicale del discorso tecnologico: la narrativa non nasce più solo nei laboratori o nei think tank, ma nei social media e negli studi televisivi. La tecnologia diventa spettacolo, e il pubblico il giudice finale. La sfida sarà distinguere tra allarme legittimo e marketing emotivo.

Il dibattito è aperto, ma la sfida concreta rimane tecnica. Garantire che sistemi AI avanzati siano sicuri e controllabili richiede standard globali di test, monitoraggio continuo, verifiche indipendenti e collaborazione internazionale tra governi e industria. Fermare tutto finché non ci sono queste condizioni è un obiettivo nobile, ma pragmaticamente irrealizzabile. I segnali di pericolo esistono, ma la soluzione non è la paura generalizzata: è la progettazione responsabile, la trasparenza e l’educazione pubblica.

L’ultima domanda resta aperta: il mondo seguirà la narrativa della paura o costruirà infrastrutture di controllo reali? Il futuro della superintelligenza artificiale non si decide con firme e celebrity, ma con leggi concrete, investimenti nella sicurezza AI e una comprensione reale dei rischi. Il dibattito mediatico è spettacolare, ma il vero lavoro è silenzioso, tecnico e in gran parte invisibile al pubblico.

In definitiva, il divieto globale proposto è più un gesto simbolico che un’azione concreta. Serve a spostare l’asse del dibattito, attrarre attenzione e generare pressione politica. La vera questione è se l’umanità saprà costruire sistemi AI sicuri e trasparenti prima che la narrativa della paura diventi legge e la superintelligenza rimanga solo un fantasma mediatico.