Preoccuparsi della superintelligenza artificiale oggi è l’equivalente digitale di temere ingorghi stradali sulla tangenziale di Marte prima ancora di averci piantato la prima bandiera. La provocazione di Andrew Ng non è invecchiata di un minuto, anzi funziona come una lente sarcastica con cui osservare l’ossessione globale per la artificial general intelligence. Una tecnologia che non solo non esiste ma rimane priva di qualsiasi percorso ingegneristico verificabile per arrivarci. Da qui nasce una domanda imbarazzante che molti fingono di non sentire: perché continuiamo a parlarne come se stessimo aspettando un corriere che è solo in ritardo di qualche ora.

Molti fingono stupore quando qualcuno osa far notare che le magnifiche sorti e progressive della scala del deep learning si sono trasformate in una curva che sembra la rendita di un bond scaduto. I modelli diventano pachidermi affamati di elettricità e silicio, i progressi appaiono marginali, eppure ci ostiniamo a chiamarla accelerazione. La legge di scala di Dario Amodei sembrava una rampa di lancio per orbite sempre più alte, fino a quando non abbiamo scoperto che la combustione brucia più carburante di quanto ne trasformi in spinta. Un dettaglio tecnico che qualcuno finge di ignorare mentre parla di AGI come dell’imminente arrivo di una nuova specie.

Molto del fascino della superintelligenza artificiale deriva da una caratteristica che accomuna le più durature forme di mitologia tecnologica. La capacità di proiettare sull’ignoto una miscela di desiderio e paura, trasformando limiti banalmente matematici in promesse metafisiche. Nonostante ciò, la comunità scientifica continua a mostrarsi scettica. Quella vera, intendo, non la corte mediatica di visionari con portfolio di venture capital. Il recente sondaggio dell’Aaai ha rappresentato un bagno di realismo: tre ricercatori su quattro dichiarano che la AGI è “improbabile” o “molto improbabile” seguendo gli attuali paradigmi del deep learning. Un dato che dovrebbe essere su ogni homepage del settore ma che è stato prontamente seppellito sotto un altro annuncio di addestramenti multi-milionari alimentati da GPU ingorde.

Stuart Russell si è concesso un elegante understatement quando ha detto che era ormai evidente che i benefici della scala hanno raggiunto il picco. Il che tradotto significa che stiamo gettando calcoli e corrente contro muri concettuali che non cedono. La cosa ironica è che molti pionieri, da Richard Sutton ad Andrej Karpathy, hanno iniziato a fare marcia indietro. Un dettaglio che non ha impedito ai CEO più spirituali della Silicon Valley di annunciare ogni tre mesi che la AGI è a un passo, anche se quel passo sembra assomigliare sempre più alla linea dell’orizzonte.

La narrativa della superintelligenza resta irresistibile perché funziona come una religione laica per epoche ipertecnologiche. La promessa di una mente sovrumana che risolverà problemi troppo grandi per noi è fin troppo seducente. Nel libro Techgnosis, Erik Davis ha osservato che viviamo in una cultura talmente digitale e cinica da essere inspiegabilmente attratta dalle fiamme tremolanti delle antiche pulsioni mistiche. Nulla descrive meglio l’attuale devozione verso la AGI. Una fede che non richiede liturgie complesse, basta ripetere le parole magiche: modello più grande, più dati, più calcolo. Una trinità laica pronta a giustificare consumi energetici da piccola nazione.

Qualcuno potrebbe persino chiedersi perché questa storia persiste nonostante l’evidenza. La risposta è meno misteriosa di quanto sembri. Parlare di AGI conviene, eccome. Gli investimenti giganteschi nell’AI non possono essere giustificati solo con chatbot più educati e generatori di video dall’estetica discutibile. Servono narrazioni più ampie, preferibilmente salvifiche. La promessa di una intelligenza divina capace di risolvere la fisica, curare il cancro e magari scrivere poesie decenti. Anche quando le stesse aziende che esclamano queste profezie investono nell’esatto opposto, ovvero contenuti pornografici sintetici, deepfake e slop generati in serie. Un paradosso che non sembra turbare nessuno.

La somiglianza con una teoria del complotto non è casuale. Will Douglas Heaven ha osservato che la AGI possiede tutti gli ingredienti narrativi perfetti: uno scenario flessibile che non può essere falsificato, una promessa di salvezza, un’élite di iniziati che “sanno”. Il risultato è una struttura mitologica autoalimentata che si replica con la stessa efficienza con cui i modelli linguistici replicano pattern statistici nei dati. Non stupisce che la retorica sulla superintelligenza abbia assunto i toni di un millenarismo digitale. Alcuni profeti tecnologici sembrano sul punto di lanciare la versione cloud dell’apocalisse secondo San Giovanni.

Il problema non è solo culturale ma politico ed economico. La narrativa AGI altera il modo in cui interpretiamo i costi reali dell’intelligenza artificiale. Ci spinge a considerarli un pedaggio necessario per raggiungere una forma superiore di progresso, come se il pianeta fosse un dettaglio trascurabile davanti alla possibilità di generare un dio sintetico. Ci distrae dai rischi concreti e già presenti. Impatto sul lavoro, consumo energetico fuori controllo, pregiudizi algoritmici, sorveglianza diffusa. Questi sono problemi reali, misurabili, in crescita. Eppure vengono trattati come inconvenienti transitori mentre resta in cima all’agenda un pericolo immaginario che ha l’eleganza di non poter essere verificato.

Una conseguenza ancora più sottile riguarda l’allocazione delle risorse. Quando l’intero settore vive ossessionato dagli agenti, dai modelli multimodali e dalla ricerca di una supposta coscienza artificiale, si finisce per ignorare soluzioni molto più semplici, robuste e utili. Molti casi d’uso non richiederebbero modelli giganteschi ma algoritmi predittivi tradizionali, più trasparenti e molto meno costosi. La mancanza di senso pratico è diventata un vizio sistemico, mascherato da futurismo.

La parte ironica è che i sostenitori più rumorosi della AGI spesso ignorano un dettaglio imbarazzante. Nessuno sa definire cosa sia l’intelligenza, figuriamoci una versione generale e superumana. Le definizioni cambiano a seconda della conferenza keynote, del pitch agli investitori o della discussione su X. Non sorprende che questo concetto sia così resistente alle critiche. Come tutte le mitologie efficaci, vive nel regno dell’indefinibile.

La vera minaccia non è la superintelligenza artificiale ma la nostra crescente tendenza a considerare naturale la sua esistenza futura. Una prospettiva comoda perché deresponsabilizza. Ci convince che le prossime crisi saranno risolte da sistemi onniscienti, mentre noi possiamo limitarci a fare refresh sulla dashboard dei KPI. Una tentazione profondamente umana. Una pericolosa scorciatoia cognitiva che allontana l’attenzione dai danni già visibili.

Se c’è un rischio esistenziale oggi, è quello di lasciare che la narrativa AGI continui a governare il modo in cui pensiamo l’innovazione. Una narrativa che sovralimenta aspettative distorte e sposta il dibattito pubblico dal concreto al favolistico. Una narrazione che si autoassolve da qualsiasi fallimento perché il suo orizzonte è sempre spostato al prossimo annuncio, alla prossima milestone impossibile da verificare, al prossimo modello definito “quasi senziente” da qualche comunicato stampa eccessivamente ottimista.

Molti sembrano dimenticare un semplice principio di realtà. Le tecnologie non avanzano seguendo profezie ma attraverso fondamenta concettuali solide che oggi non intravediamo. La superintelligenza artificiale rimane un mito affascinante, certo, ma pur sempre un mito. Una narrazione millenarista con un potere culturale immenso, capace di dettare l’agenda dell’economia tecnologica globale più di quanto dovremmo permettere.

Per questo vale la pena ripetere le parole di Ng non come un monito ma come un esercizio di igiene intellettuale. Prima di preoccuparci della sovrappopolazione di Marte, sarebbe saggio imparare a camminare sulla polvere rossa senza inciampare nelle nostre stesse proiezioni. AI generali o superintelligenti non ne abbiamo. Ma miti molto sofisticati, quelli sì, in abbondanza.

Da

“How AI can achieve human‑level intelligence: researchers call for change in tack” — Nature Research, articolo che riporta come la maggioranza dei ricercatori ritenga improbabile che le attuali tecniche portino a una vera AGI. Nature+1

“Most AI researchers do not believe AGI is imminent. Why do policymakers act otherwise” — pubblicato su TechPolicy.Press, che segnala un sondaggio della Association for the Advancement of Artificial Intelligence (AAAI) su 475 ricercatori in cui il 76 % ritiene “improbabile” che scalare gli approcci attuali porti ad AGI. Tech Policy Press+1

“Don’t believe the hype: AGI is far from inevitable” — studio congiunto di varie università, che afferma che non conosciamo un percorso chiaro verso la AGI e che semplicemente scalare non basta. Radboud University

“The AGI Mythology: The Argument to End All Arguments” — rapporto dell’AI Now Institute che esamina come la narrativa AGI mascheri i limiti reali delle tecniche attuali. AI Now Institute

“Scaling Law for AI: Issues, Necessity, and Feasibility” — capitolo accademico che analizza critica al paradigma della sola scala dei modelli come via per AGI. OUP Academic