L’intelligenza artificiale generale, o AGI, è diventata il Santo Graal dell’industria tecnologica, un obiettivo evocato con la stessa leggerezza con cui negli anni Novanta si parlava di “portare internet ovunque”, salvo poi scoprire che quel “ovunque” implicava vent’anni di infrastrutture, fallimenti e bolle speculative. Il problema, naturalmente, non è la destinazione ma la definizione stessa del viaggio. AGI è una sigla che promette tutto e non garantisce nulla; una parola ombrello che permette a CEO, investitori e policy maker di dire cose molto diverse senza mai contraddirsi davvero.
Quando figure come Elon Musk dichiarano che l’AGI arriverà entro il 2026, oppure che entro il 2030 l’intelligenza artificiale supererà quella umana collettiva, il mercato reagisce come sempre: non chiedendo “come”, ma chiedendo “quanto investire”. La previsione diventa narrativa finanziaria. La narrativa finanziaria diventa capitale. Il capitale diventa infrastruttura. E improvvisamente il concetto, anche se vago, inizia a plasmare la realtà economica.
Il punto è che AGI non è una tecnologia, è una categoria filosofica travestita da roadmap industriale. Sam Altman e Dario Amodei parlano di sistemi capaci di ragionare, apprendere e operare su domini diversi con flessibilità umana. Ma cosa significa davvero “flessibilità umana”? Il cervello umano è lento, inefficiente, soggetto a bias cognitivi e con una memoria di lavoro ridicolmente limitata. Se quella è la baseline, allora molte AI attuali sono già “superiori” in diversi ambiti. Ma nessuno direbbe seriamente che ChatGPT o Claude siano AGI, a meno di non voler ridefinire il termine per comodità mediatica.
Questa ambiguità è strategica. Nel momento in cui la definizione resta fluida, il traguardo resta sempre “quasi raggiunto”, una posizione perfetta per attrarre investimenti senza dover dimostrare un punto di arrivo verificabile. Il paradosso è evidente: più ci avviciniamo all’AGI, meno siamo in grado di dire con precisione cosa sia. Malo Bourgon lo ammette con una franchezza rara: esistono molte definizioni e nessuna davvero operativa. In un settore ossessionato da metriche, benchmark e leaderboard, l’obiettivo finale resta sorprendentemente non quantificabile.
Storicamente, il concetto di AGI nasce come reazione. Negli anni Duemila, ricercatori come Ben Goertzel e Shane Legg introducono il termine per distinguere l’obiettivo originario dell’intelligenza artificiale, cioè una mente artificiale generale, dai sistemi specializzati che iniziavano a dominare la ricerca. Ironia della sorte, quei sistemi “ristretti” sono oggi il cuore di un’industria da trilioni di dollari, mentre l’AGI resta un orizzonte mobile.
Il dibattito contemporaneo si divide lungo una linea quasi ideologica. Da una parte, chi sostiene che l’AGI sia già qui, magari in forma embrionale. Dall’altra, chi considera questa affermazione una forzatura semantica. Shaw Walters, fondatore di Eliza Labs, afferma che siamo già al punto di inflessione. Goertzel, con un certo fastidio, osserva che il termine è stato diluito fino a perdere significato. Due visioni incompatibili, entrambe utili. La prima alimenta entusiasmo e funding. La seconda preserva rigore teorico. Nel mezzo, il mercato continua a crescere.
Il nodo centrale resta l’autonomia. I modelli attuali sono straordinariamente capaci, ma operano come strumenti, non come agenti indipendenti. Possono scrivere codice, generare immagini, sintetizzare conoscenza, ma raramente definiscono obiettivi propri o navigano ambienti complessi senza supervisione umana. L’AGI, nella maggior parte delle definizioni operative, implica proprio questo salto: dalla competenza alla agency. Non più strumenti avanzati, ma sistemi capaci di perseguire obiettivi in contesti variabili.
Questa distinzione, apparentemente accademica, ha implicazioni economiche enormi. Uno strumento aumenta la produttività. Un agente ridisegna il mercato del lavoro. La differenza tra un copilota e un sostituto è la differenza tra un ciclo di crescita e una rivoluzione industriale. Le aziende investono miliardi non per avere chatbot migliori, ma per costruire entità operative digitali. È una scommessa sulla trasformazione strutturale dell’economia, non sull’efficienza incrementale.
Il problema, tuttavia, è che i modelli attuali funzionano principalmente come sistemi di compressione della conoscenza. Come osserva Goertzel, non apprendono nel senso umano del termine; assorbono e riorganizzano enormi quantità di dati. Il famoso esempio è illuminante: addestrare un modello su musica fino al 1900 non produrrà hip hop. Non perché il modello sia incapace di combinare elementi, ma perché manca di un contesto evolutivo, culturale e sociale che guida l’innovazione umana. L’AGI, se esiste, dovrebbe essere in grado di generare novità autentica, non solo remix sofisticati.
Questa distinzione introduce un’altra variabile spesso ignorata: il tempo. L’intelligenza umana non è solo capacità computazionale, ma processo storico. Le idee emergono da interazioni, errori, conflitti. Ridurre tutto a scaling laws, come fanno molti laboratori, è comodo ma riduttivo. Aumentare la potenza di calcolo produce modelli più grandi, non necessariamente più “intelligenti” nel senso forte del termine. È un po’ come pensare che costruire biblioteche più grandi produca automaticamente filosofi migliori.
Eppure, la narrativa dominante resta quella della scalabilità. Più dati, più compute, più capacità. Morgan Stanley e altri attori finanziari iniziano a trattare l’AGI come una funzione quasi deterministica dell’investimento infrastrutturale. Dieci volte il compute, doppia capacità. È una visione seducente, perché trasforma un problema filosofico in un problema ingegneristico. Ma la storia della tecnologia è piena di esempi in cui la quantità non si traduce in qualità.
Il confronto geopolitico aggiunge un ulteriore livello di complessità. Negli Stati Uniti, l’AGI è un tema quasi esistenziale, legato a sicurezza, etica e supremazia tecnologica. In Cina, come osserva Kyle Chan, l’approccio è più pragmatico. L’obiettivo non è definire l’AGI, ma costruire sistemi che generino valore economico, soprattutto nel mondo fisico. Robotica, droni, automazione industriale. Meno filosofia, più supply chain. È una differenza culturale che potrebbe rivelarsi decisiva.
La storia suggerisce che le rivoluzioni tecnologiche non sono guidate da definizioni precise, ma da applicazioni concrete. Internet non è diventato dominante perché qualcuno ha definito perfettamente il protocollo TCP/IP, ma perché ha abilitato nuovi modelli di business. Allo stesso modo, l’AGI potrebbe emergere non come evento, ma come accumulo di capacità distribuite. Nessun momento “eureka”, ma una lenta erosione dei confini tra umano e macchina.
Il concetto di “intelligenza generale” potrebbe quindi essere un falso problema. Più che chiedersi se un sistema sia AGI, ha senso chiedersi cosa può fare, con quale affidabilità e a quale costo. È una prospettiva meno romantica, ma decisamente più utile per chi deve prendere decisioni strategiche. Le aziende che vinceranno non saranno quelle che dichiarano di aver raggiunto l’AGI, ma quelle che integrano l’AI in modo efficace nei processi produttivi.
Resta però una dimensione inevitabilmente narrativa. L’AGI funziona come mito fondativo, una storia che coordina aspettative e investimenti. In questo senso, è simile alla “singolarità tecnologica”, un altro concetto più potente come idea che come realtà operativa. I mercati non hanno bisogno di certezze, hanno bisogno di storie credibili. E l’AGI è una delle storie più potenti del nostro tempo.
La vera domanda, allora, non è quando arriverà l’AGI, ma cosa succederà quando smetteremo di parlarne come se fosse un punto di arrivo. Forse scopriremo che l’intelligenza, anche artificiale, non è una soglia da attraversare, ma un continuum da navigare. Una serie di capacità emergenti, imperfette, spesso contraddittorie. Proprio come quelle umane.
Nel frattempo, il capitale continuerà a fluire, i modelli continueranno a crescere, e i CEO continueranno a fare previsioni. Perché in fondo, nel capitalismo tecnologico, la previsione è un prodotto tanto quanto il software. E l’AGI, per ora, resta il prodotto più venduto che nessuno ha ancora consegnato.