Mentre alcuni si illudono di poter negoziare trattati sull’intelligenza artificiale come se si trattasse di emissioni di CO₂, altri si limitano a osservare l’esperimento dall’interno, sperando che almeno valga il biglietto. Elon Musk, nella sua solita performance tra profezia e show business, ci regala una frase che potrebbe appartenere tanto a un predicatore del XIX secolo quanto al fondatore di una religione digitale: “Probabilmente sarà un bene. Ma anche se non lo fosse, mi piacerebbe essere vivo per vederlo accadere”.

Questa dichiarazione è tutto tranne che banale. Perché dice quello che pochi hanno il coraggio di ammettere: che l’interesse primario della nostra epoca non è più la sicurezza collettiva, ma l’intrattenimento personale, anche a costo dell’estinzione. E che la superintelligenza, qualunque cosa essa sia, si sta trasformando in uno spettacolo globale. Un reality quantistico. La cui sceneggiatura non è scritta da nessuno, ma tutti sono convinti di saperne anticipare il finale.


Nel frattempo, mentre l’umanità si divide tra profeti, negazionisti e ricercatori esausti, la burocrazia tecnologica avanza. Il nome ufficiale è governance dell’intelligenza artificiale. L’acronimo preferito dai think tank è AI verification. L’obiettivo dichiarato è garantire che i modelli non facciano “cose brutte”. L’obiettivo reale è rallentare abbastanza da evitare una crisi reputazionale prima del prossimo funding round. Il tutto condito da un linguaggio tecnico sempre più simile a quello delle risoluzioni ONU che nessuno legge ma che, teoricamente, dovrebbero salvare il mondo.

Il documento pubblicato dall’Oxford Martin AI Governance Initiative è il tipico esempio di questa schizofrenia semantica. Ci dice che la verifica dei trattati internazionali sull’intelligenza artificiale è possibile anche senza progressi speculativi nella tecnologia di verifica. Detto in modo più comprensibile: non abbiamo bisogno di sapere se i sistemi funzionano davvero per decidere come controllarli. Un capolavoro di ottimismo metodologico. O, più cinicamente, un modo elegante per dire che andremo avanti comunque, anche senza capire. Perché la governance è un esercizio di fede, non di evidenza.

Ma l’epicentro del terremoto non è nei policy paper di Oxford. È dentro le aziende che stanno costruendo l’AI di frontiera. O, per usare un termine più appropriato, la superintelligenza precompetente. Perché quello che oggi viene venduto come AGI (Artificial General Intelligence) non è altro che una sequenza di modelli linguistici sempre più bravi a sembrare intelligenti. Non lo sono. Ma la differenza, per il mercato e per la politica, è irrilevante. È il comportamento che conta. O meglio: l’apparenza del comportamento.

Ed è qui che arriva la parte più interessante. Perché i protagonisti di questa rivoluzione non sembrano molto convinti di ciò che stanno facendo. Tijmen Blankevoort, ex ricercatore Meta, lo dice senza filtri: “Devo ancora incontrare qualcuno in Meta-GenAI a cui piaccia davvero stare lì… non è nemmeno chiaro quale sia la nostra missione”. È una frase che varrebbe come tagline per un documentario sulla decadenza dell’innovazione. Non una condanna, ma una confessione. Una di quelle che, in una corte, fanno più rumore dell’accusa.

E se la disillusione interna è un termometro, allora c’è febbre alta anche altrove. I ricercatori dell’AISI nel Regno Unito, ad esempio, si chiedono se stiamo ripetendo gli stessi errori degli anni ’70, quando si cercava di insegnare il linguaggio ai primati non umani con un entusiasmo inversamente proporzionale alla solidità del metodo scientifico. Oggi come allora, l’industria dell’AI sembra più interessata a costruire narrazioni che teorie. E a puntellare le narrazioni con una mole impressionante di aneddoti, benchmark opachi e previsioni vagamente mistiche.

La conseguenza è ovvia. Nessuno ha idea di cosa misurare. Tutti testano qualcosa, ma nessuno sa se quel qualcosa è rilevante. DeepMind ha appena pubblicato uno studio per rassicurare il mondo sul fatto che “nessuno dei nostri modelli mostra livelli preoccupanti di consapevolezza della situazione o di furtività”. Tradotto: le nostre AI non sembrano ancora intenzionate a nascondersi. Ma siamo davvero sicuri che la mancanza di furtività sia una metrica affidabile? L’unico modo per sapere se un’intelligenza artificiale si sta nascondendo… è che smetta di farlo. E a quel punto, beh, è troppo tardi.

Quello che emerge è un cortocircuito epistemologico. Stiamo cercando di regolamentare qualcosa che non solo non comprendiamo, ma che probabilmente non è neanche definibile con precisione. La “frontiera dell’IA” è una costruzione simbolica. Un orizzonte mobile, continuamente risemantizzato da paper, post su X, demo spettacolari e dichiarazioni post-moralistiche di imprenditori post-umani. Eppure è proprio quella frontiera, instabile e sfuggente, che oggi ossessiona i regolatori.

Ma come si regola ciò che non si può descrivere? Dean W. Ball e Ketan Ramakrishnan propongono una risposta brutalmente pragmatica: non regolare i modelli, ma le aziende. È più facile, più storico, più americano. Il diritto commerciale degli Stati Uniti, ci dicono, ha secoli di esperienza nel trattare con entità complesse e potenzialmente dannose. È vero. Ma questo sposta il focus dal comportamento della tecnologia al comportamento degli attori economici. E implicitamente ci dice che non possiamo più distinguere tra rischio tecnologico e rischio aziendale. Sono la stessa cosa. La governance dell’AI, in questa prospettiva, non è altro che una forma sofisticata di regolazione del capitale mascherata da tutela dell’umanità.

Quello che si intravede, in filigrana, è l’alba di un nuovo tipo di regolazione. Non normativa, ma narrativa. Non si tratta più di decidere cosa è lecito fare, ma di controllare quali storie si possono raccontare. Chi può definirsi AI safety researcher? Chi può dichiarare di aver costruito una AGI? Chi può dire che l’AI è “utile, sicura, allineata”? La battaglia non è tra ingegneri e giuristi, ma tra autori e controllori della realtà. Una lotta per l’egemonia semiotica, non solo politica.

Ed è forse questo il vero paradosso dell’intelligenza artificiale di frontiera: che più ci avviciniamo a essa, meno siamo capaci di parlarne con precisione. La proliferazione di report, trattati, benchmark e commissioni etiche non è segno di maturità, ma di panico epistemico. È il rumore bianco dell’era post-razionalista. Quella in cui persino l’incertezza è diventata un KPI.

A guardare da vicino, l’unica cosa veramente generale dell’AI attuale è la sua capacità di generare confusione. Non c’è niente di “intelligente” in un sistema che predice la parola successiva meglio degli umani ma non sa se esiste davvero. E nulla di “artificiale” in un modello che imita il linguaggio umano ma ne rifiuta le implicazioni ontologiche. Quello che abbiamo costruito, in fondo, è una macchina di specchi. Un riflesso del nostro stesso desiderio di controllo, spalmato su milioni di parametri e travestito da oggettività computazionale.

E quindi, cosa resta da fare? Forse proprio quello che Musk suggerisce, anche se non nel modo in cui lui intende. Guardare. Stare vivi abbastanza per vedere cosa succede. E nel frattempo, provare a riscrivere le regole non per fermare il futuro, ma per capirne il copione. Perché, come ci ha insegnato ogni tragedia greca, il vero pericolo non è l’evento catastrofico, ma l’incapacità di riconoscerlo mentre accade.

La superintelligenza non è (ancora) qui. Ma la sua ombra si allunga su ogni decisione che prendiamo. E il modo in cui oggi scegliamo di raccontarla determinerà se domani saremo ancora gli autori della nostra storia, o solo spettatori di una trama che non comprendiamo più.