l concetto di AGI, l’Intelligenza Artificiale Generale, è uno di quegli ideali che spingono il settore dell’AI da oltre sessant’anni. Un sistema capace di ragionare come un essere umano, in ogni ambito, dalla comprensione linguistica al controllo motorio, fino alla gestione di problemi complessi e astratti. La verità, tuttavia, è che l’AGI resta un miraggio. Lo si percepisce chiaramente ascoltando i leader della ricerca in panel come quello organizzato recentemente da AAAI, moderato da Francesca Rossi Global Leader per l’Etica dell’Intelligenza Artificiale di IBM e Fellow IBM. Un confronto serrato, dove le parole chiave non erano solo “tecnologia” e “innovazione”, ma “definizione”, “scalabilità” e, soprattutto, “rischi”.
Il primo nodo cruciale è la definizione stessa. Stuart Russell, da Berkeley, ha insistito sul fatto che l’AGI non è un algoritmo che eccelle in qualche compito selezionato, ma un sistema capace di eguagliare o superare l’uomo in tutte le dimensioni cognitive rilevanti. Persino nella percezione, nel controllo motorio e nella pianificazione strategica. È una visione rigorosa, quasi maniacale, ma utile per distinguere ciò che oggi chiamiamo AI generica dai sistemi realmente generali.
Eric Horvitz di Microsoft ha smorzato questa rigidità. Secondo lui, l’AGI è meglio immaginata come un “viaggio su una superficie multidimensionale” di abilità cognitive. Non c’è un punto di arrivo netto, ma una progressione costante verso intelligenze più generali. Non aspettiamo una singolarità, dice Horvitz, ma osserviamo scintille di intelligenza che si accendono man mano che i sistemi si evolvono.
Holger Hoos, pragmatico fino al sarcasmo, porta la conversazione sul terreno dell’impatto reale: sistemi con calcolo milioni di volte superiore al cervello umano e accesso illimitato ai dati possono già cambiare società, economia e potenzialmente causare danni catastrofici. Non serve un’AGI completa per osservare trasformazioni profonde. Il futuro non è “quando avremo un’AGI perfetta”, ma “come gestiremo ciò che già è potente e quasi incontrollabile”.
Il tema della scalabilità dei modelli linguistici avanzati ha scatenato un consenso amaro. La comunità scientifica sembra concordare: aumentare parametri e dataset non produrrà miracoli cognitivi. Russell lo definisce un’alchimia della scala: si ingrandiscono i modelli, si moltiplicano le risorse computazionali, ma senza capire davvero come imparano. La fragilità dei sistemi è evidente. Possono scrivere saggi convincenti o generare codice funzionante, ma falliscono miseramente in compiti che richiedono comprensione concettuale o senso comune.
Hoos punge ancora più in profondità: mancano ragionamento strategico, pianificazione reale, strumenti formali per garantire affidabilità. La battuta non perde effetto: “Crederò all’AGI quando un’auto a guida autonoma percorrerà Palermo senza incidenti”. Il messaggio è chiaro: potenza computazionale senza comprensione del mondo reale resta una promessa vuota.
Horvitz aggiunge il conto degli elementi mancanti: memoria episodica, ragionamento causale e controfattuale, competenze sociali e comprensione fisica del mondo. Questi sistemi mostrano solo scintille di intelligenza generale, lontane dall’obiettivo di una capacità cognitiva robusta e trasferibile.
Quando si parla di rischi, il dibattito diventa quasi filosofico. Horvitz ricorda che il pericolo immediato non è un’AGI ribelle, ma l’uso umano della tecnologia. Governi, corporation e organizzazioni criminali potrebbero sfruttarla per sorveglianza massiva, manipolazione sociale o concentrazione estrema di potere. Le correnti profonde, come le chiama lui, sono meno visibili ma più insidiose: la nostra agenzia decisionale diminuisce, la nostra identità evolve secondo schemi decisi dalle macchine, e rischiamo di delegare troppo, troppo in fretta.
Russell lancia l’allarme sull’urgenza normativa: se una AGI non allineata può avere anche solo il 10-30% di probabilità di portare a scenari catastrofici, perché non regoliamo subito? La proposta è netta: requisiti di sicurezza non negoziabili, analoghi agli standard aeronautici, costringendo le aziende a bilanciare calcolo e etica. La prudenza diventa il vero indicatore di progresso.
Il panel ha poi discusso la misurazione reale del progresso verso l’AGI. I benchmark accademici attuali, dai test linguistici ai giochi strategici, sono insufficienti. Servono ambienti di test realistici, dove le macchine interagiscano con contesti fisici, sociali e economici veri. La vera misura sarà la capacità di trasferire conoscenze tra domini diversi e ragionare concettualmente, come farebbe un essere umano.
Un tema più sottile ma cruciale emerge: l’identità dell’intelligenza. Un sistema può produrre risposte coerenti e creative, persino eticamente orientate, ma questo basta per definirlo intelligente? Hoos sintetizza il dilemma: “L’AGI potrebbe imitare perfettamente l’uomo senza comprenderlo. L’imitazione inganna, la comprensione crea vero potere”.
Il quadro complessivo è chiaro: la corsa all’AGI non può basarsi solo su potenza computazionale o dataset sterminati. La sfida vera richiede nuove fondamenta scientifiche, governance preventiva e capacità di ragionamento e causalità. Solo così il futuro dell’AGI sarà sotto controllo, e non una minaccia nascosta dietro un algoritmo generativo apparentemente innocuo.
Mappa AGI:
- AI Trasformativa: sistemi non completamente generali ma capaci di impatti socio-economici profondi.
- Ragionamento causale e trasferimento di conoscenza: prossima frontiera della ricerca, critica per l’allineamento con l’intelligenza umana.
- Benchmark realistici: test in ambienti fisici e sociali, per misurare competenze reali oltre le simulazioni accademiche.
- Sicurezza normativa globale: standard non negoziabili e governance preventiva prima di ogni rilascio su larga scala.
- Dipendenza decisionale e identità umana: gestione dei rischi sottili legati all’agenzia e alla percezione di sé.
- Scintille di intelligenza generale: osservazione dei progressi reali nei sistemi LLM, ancora lontani dalla piena AGI.
Ringrazio Horovits per il paper: