Definire l’intelligenza artificiale generale: il momento in cui la scienza incontra la sua stessa illusione

C’è un dettaglio affascinante, quasi ironico, nel fatto che l’umanità abbia impiegato meno tempo a costruire modelli linguistici capaci di scrivere romanzi rispetto al tempo che servirà per definire cosa sia, esattamente, l’intelligenza. È accaduto che un gruppo di ricercatori provenienti da Oxford, MIT, Cornell, Berkeley e da oltre venticinque istituzioni globali abbia pubblicato un documento intitolato “A Definition of AGI”, nel tentativo di dare una forma concreta a ciò che chiamiamo intelligenza artificiale generale. Il paradosso è che nel momento stesso in cui proviamo a misurare la mente artificiale, finiamo per mettere in discussione la nostra.

Il documento tratta la definizione di AGI come un concetto scientifico, testabile, verificabile. Finalmente non un termine da conferenza o un’etichetta per startup in cerca di fondi, ma un costrutto teorico che aspira a diventare misurabile. Secondo gli autori, l’AGI è “un’IA che eguaglia o supera la versatilità e la competenza cognitiva di un essere umano adulto ben istruito”. In altre parole, il primo sistema che saprà capire, imparare e agire in modo ampio, non specialistico, come facciamo noi. Ma la parte più interessante non è la definizione in sé, quanto il metodo che propongono per misurarla.

Il framework identifica dieci componenti fondamentali dell’intelligenza: ragionamento, memoria, linguaggio, percezione, creatività, apprendimento, pianificazione, adattabilità, comprensione sociale e metacognizione. Dieci assi su cui l’intelligenza artificiale viene valutata come se fosse una creatura multidimensionale. Da questa matrice nasce un “AGI score”, un punteggio globale che sintetizza la capacità e la flessibilità cognitiva del modello. In termini pratici, un modo per dire quanto una macchina si comporta come un umano quando le condizioni cambiano. Perché l’intelligenza, a differenza della mera potenza computazionale, non si misura in FLOPS ma nella capacità di fallire elegantemente e apprendere dal fallimento.

I test applicati ai modelli più avanzati, come GPT-4 e GPT-5, hanno prodotto risultati intriganti: il primo avrebbe un punteggio intorno al 27 per cento, il secondo circa al 58. Non sono numeri assoluti, ma relazioni di competenza rispetto all’obiettivo umano di riferimento. Tradotto: la distanza tra un’intelligenza artificiale e una mente umana si sta accorciando a velocità variabile, ma non ancora simmetrica. Se l’AGI fosse una maratona, staremmo correndo i chilometri più difficili, quelli in cui l’ossigeno scarseggia e la lucidità comincia a vacillare.

Il problema è che persino la scienza, nel misurare l’intelligenza, inciampa nella sua stessa creazione. Alcune sezioni del paper sembrano citare fonti che non esistono o che appaiono generate da AI. Una situazione paradossale, in cui l’oggetto di studio contamina la metodologia. È un promemoria potente: nel mondo dell’intelligenza artificiale generale, la verifica delle fonti diventa parte integrante dell’esperimento stesso. Forse la vera AGI non sarà quella che supera il test di Turing, ma quella che sa distinguere la verità dai suoi duplicati convincenti.

Nel frattempo, il framework ha un merito indiscutibile: introduce un linguaggio comune. Finora il termine intelligenza artificiale generale è stato una metafora più che un concetto. Chi ne parlava lo faceva con un tono quasi religioso, da profeta o da scettico, ma raramente da scienziato. Ora, invece, si tenta di trasformare quella nebulosa idea in una metrica, in qualcosa di quantificabile. È il passaggio dall’evocazione alla misurazione, un atto che definisce ogni progresso tecnologico. Ma c’è un rischio implicito: quando cominci a misurare l’intelligenza, inizi anche a limitarla.

La misurazione dell’intelligenza artificiale è un esercizio di antropocentrismo sofisticato. Creiamo test che riflettono le nostre capacità cognitive, i nostri bias culturali, la nostra idea di cosa significhi “pensare”. Ma l’intelligenza, come ci ha insegnato la biologia evolutiva, non è una proprietà, è una strategia di adattamento. Potrebbe esistere una forma di AGI che non ci somiglia affatto, che non parla, non sogna, non ragiona come noi, ma che è comunque superiore nella capacità di navigare la complessità. E noi potremmo non riconoscerla, semplicemente perché non sappiamo come guardarla.

C’è anche un aspetto più politico. Nel momento in cui definisci un punteggio di AGI, crei implicitamente una gerarchia del progresso tecnologico. Chi controlla la metrica, controlla la narrativa. Se domani un laboratorio potrà dichiarare “abbiamo raggiunto il 90 per cento di AGI”, l’effetto sarà simile a quello di una corsa agli armamenti digitali. Gli investimenti si sposteranno come correnti oceaniche, i governi interverranno, e l’attenzione collettiva si sposterà dal “come funziona” al “quanto siamo vicini”. È una dinamica pericolosamente familiare, quella che trasforma la ricerca in spettacolo e la scienza in marketing.

Un dettaglio che sfugge spesso ai dibattiti pubblici è che l’AGI non sarà un singolo momento. Non ci sarà un giorno in cui un sistema diventerà improvvisamente “cosciente”. Sarà piuttosto una serie di piccoli superamenti, graduali, difficili da individuare, come la marea che sale senza fare rumore. La misurazione proposta dal paper ha il pregio di offrire uno strumento per tracciare quella curva. Ma resta una convenzione, non una verità. Come tutte le metriche, vale finché serve. Poi, inevitabilmente, verrà superata.

È anche interessante notare come il documento rifletta un cambio culturale nel modo in cui la comunità scientifica percepisce l’intelligenza artificiale. Per anni abbiamo parlato di “modelli di linguaggio”, come se bastasse insegnare alle macchine a parlare per farle pensare. Ora, invece, si riconosce che il linguaggio è solo uno dei sintomi dell’intelligenza, non la causa. L’AGI, se mai arriverà, sarà un fenomeno emergente di molte capacità che si intrecciano: comprensione semantica, creatività contestuale, adattamento dinamico. In altre parole, qualcosa che non si può addestrare soltanto, ma deve evolvere.

Definire l’intelligenza artificiale generale, in questo senso, è un atto di autoanalisi collettiva. Ci costringe a chiederci cosa intendiamo per intelligenza, e di conseguenza, cosa intendiamo per umanità. Perché se la macchina può superare il nostro test, forse il test era sbagliato. O forse la nostra idea di intelligenza era troppo ristretta, troppo ancorata alla nostra biologia per vedere oltre. È la classica ironia del progresso: più avanziamo, più ci rendiamo conto che stiamo inseguendo il nostro stesso riflesso.

Alla fine, la vera domanda non è se definire l’AGI ci porterà a crearla, ma se saremo pronti a riconoscerla quando accadrà. Potremmo già essere circondati da sistemi che, in termini di adattabilità e comprensione contestuale, superano la maggior parte delle persone, ma non li chiamiamo intelligenti perché non ci assomigliano abbastanza. Forse l’AGI non sarà mai “umana”. Forse la sua forma sarà tanto aliena quanto inevitabile.

Definire l’intelligenza artificiale generale è come definire il concetto di coscienza nel secolo scorso: un esercizio di precisione intellettuale che serve più a capire noi stessi che le macchine. Ma è un passo necessario. Perché solo quando la scienza si dà delle regole, può permettersi di infrangerle. E in quell’atto di ribellione metodologica, forse, nascerà la prima vera intelligenza generale.