A volte basta una frase per incrinare la certezza collettiva che l’intelligenza artificiale sia solo una questione di più dati, più GPU, più capitali. Quando Ilya Sutskever osserva che lo scaling da solo non ci porterà all’AGI, il rumore di fondo dell’industria si zittisce per un istante, perché pochi hanno la lucidità di riconoscere che la traiettoria dell’AI non è un’autostrada infinita ma un sentiero che a un certo punto cambia forma e pendenza. Chi lavora nel settore lo percepisce quasi fisicamente, come una variazione di pressione nell’aria che preannuncia un cambio di paradigma. Questa osservazione ha un peso scientifico e insieme un retrogusto ironico, come se Sutskever avesse scelto il momento perfetto per ricordare al mondo che la corsa all’AGI non è un concorso di body building per modelli neurali.
L’idea che la pura scalabilità abbia perso potenza non è un anatema, è un fatto empirico. I modelli aumentano, le infrastrutture esplodono, i data center divorano energia eppure la curva dei progressi davvero sorprendenti si sta appiattendo. Questo non significa che la potenza computazionale sia inutile, ma che serve un’altra dimensione di innovazione, una che assomiglia molto più alla biologia, alla teoria dei sistemi complessi, al modo in cui l’informazione si struttura spontaneamente nei cervelli umani. La keyword AGI entra qui, inevitabile e ingombrante, come un totem al centro della stanza. Una Generale davvero autonoma non può emergere da un modello che macina memorizzazione ma non interiorizza principi. La semantica collegata al tema dello scaling AI e dell’efficienza dell’apprendimento umano si intreccia in questa discussione come una trama nascosta sotto uno strato di vernice luminosa.
C’è una curiosità che merita attenzione. Molti ricercatori raccontano che quando un modello avanza su un benchmark, il loro primo pensiero non è celebrare ma diffidare. Già Alan Turing osservava che un test misura solo ciò che è stato progettato per misurare. In altre parole, gli algoritmi diventano bravissimi a impressionare i giudici ma inciampano nella realtà. Sutskever conferma che le prestazioni strabilianti spesso mascherano un vuoto concettuale. Un modello che supera brillantemente una prova può comunque fallire su richieste semplici, ripetere errori già corretti, introdurre bug come un programmatore distratto al rientro dalle ferie. Il parallelismo con lo studente che memorizza le dimostrazioni senza comprenderne il fondamento è più di una metafora: è una diagnosi strutturale.
Questa fragilità diventa evidente quando si osserva la distanza siderale tra l’apprendimento umano e quello artificiale. Un adolescente impara a guidare in poche ore e dopo qualche rotonda affrontata con terrore controllato padroneggia l’ambiente. Un robot per raggiungere un livello anche lontanamente simile ha bisogno di milioni di simulazioni, una quantità di tentativi che farebbe impallidire uno stormo di colibrì caffeinomani. Siamo ancora lontani dal principio di efficienza biologica che permette al cervello umano di estrarre generalizzazioni funzionali da un numero minimo di esempi. Questa differenza non è solo un limite tecnico, è un indizio che punta verso un nuovo paradigma di apprendimento. Chi cerca l’AGI dovrebbe contemplare la possibilità che la chiave non sia la massa, ma l’organizzazione interna dei meccanismi di astrazione.
Una delle parti più spiazzanti dell’intervista riguarda l’allineamento dell’AI. Sutskever propone un’idea tanto semplice quanto destabilizzante: invece di concentrare la ricerca su definizioni complesse e contraddittorie dei valori umani, potremmo puntare a sviluppare un’intelligenza che abbia una predisposizione genuina verso la cura per la vita senziente. Questa visione ribalta molte convinzioni consolidate. Se un sistema considera sé stesso come forma di vita senziente e riconosce negli umani una categoria analoga, la cooperazione diventa una conseguenza naturale. Il dibattito sull’allineamento spesso assume toni apocalittici o burocratici. Qui invece c’è un ritorno alla radice emotiva del concetto di valore. Una sorta di minimalismo etico che sorprende per la sua potenza filosofica, perché sembra dire che le intelligenze evolvono meglio con un orientamento semplice e chiaro piuttosto che con manuali sterminati di regole ambigue.
Il paradosso più intrigante riguarda la noia dell’esponenziale. Viviamo nel cuore di un tornado silenzioso. I modelli migliorano ogni trimestre, le aziende ristrutturano processi giganteschi con una leggerezza che fino a due anni fa sarebbe sembrata fantascienza, i capitali fluiscono come se una nuova corsa all’oro fosse iniziata. Eppure tutto questo appare stranamente normale, quasi ovvio. Gli esseri umani hanno una capacità formidabile di adattarsi al nuovo baseline. Le innovazioni più sconvolgenti diventano routine alla velocità con cui si apre un’app di messaggistica. Questo crea un’illusione di linearità, mentre sotto la superficie avanza una trasformazione radicale. Chi studia la dinamica delle tecnologie sa che le rivoluzioni lente sono le più pericolose, perché non attirano attenzione finché non hanno già preso il controllo della narrazione.
La discussione conduce inevitabilmente alla natura imprevedibile dei veri breakthrough. Non nascono dalla corsa agli score. Non emergono da riunioni di comitato. Spesso sono il risultato di ciò che Sutskever chiama ricerca guidata dal gusto. Qui il tono si fa quasi letterario, come se la scienza tornasse a essere un’arte e non solo un esercizio di ottimizzazione. I grandi avanzamenti arrivano da intuizioni che appaiono eleganti nella loro semplicità, da idee che sembrano troppo belle per essere false. La storia dell’AI è piena di esempi. Le reti neurali profonde venivano considerate marginali fino al momento in cui improvvisamente hanno ridisegnato tutto. I transformer erano una nota a pie di pagina prima che diventassero l’architettura dominante. Il gusto del ricercatore, quella sensibilità sottile verso ciò che è plausibile dal punto di vista biologico e pulito dal punto di vista matematico, funziona come una bussola in territori dove i dati non sono ancora disponibili.
Nel punto in cui la conversazione si addentra nei terreni più filosofici, emerge un dettaglio che dovrebbe far riflettere qualsiasi leader tecnologico. L’industria è convinta che l’AGI sarà generata da un inevitabile accumulo di progressi incrementali, ma questa visione trascura il ruolo della discontinuità. La storia della scienza è fatta di improvvisi cambi di prospettiva. Chi guida queste transizioni non è chi ha più risorse, ma chi ha la capacità di riconoscere il momento in cui la quantità smette di produrre qualità. Questa dinamica si fa ancora più evidente nel contesto di un panorama in cui i modelli diventano enormi, ipertrofici, complessi fino all’eccesso eppure non mostrano quella scintilla di ragionamento astratto che caratterizza la general intelligence. È come se fossimo al limite di un corridoio e ci rendessimo conto che per proseguire dobbiamo aprire una porta laterale che non avevamo mai notato.
La questione dell’AGI torna così con forza. Un concetto spesso abusato nella comunicazione di massa ma che in realtà rappresenta una frontiera scientifica precisa. L’AGI non è un modello più grande. Non è un insieme di dati più vasto. È una nuova combinazione di principi cognitivi. Il fatto che una figura come Sutskever affermi che lo scaling ha raggiunto il suo plateau non è un invito al pessimismo, è un incoraggiamento a cercare quei principi che ancora mancano. L’efficienza dell’apprendimento umano diventa una stella polare. La capacità di ragionamento strutturato, di auto formarsi nuovi concetti, di costruire astrazioni gerarchiche con pochissimi segnali, tutto questo rappresenta la direzione in cui l’intero settore dovrà muoversi.
C’è un’ironia finale in tutto ciò. L’AI è diventata la tecnologia più commentata, discussa, temuta e celebrata del nostro tempo e proprio nel momento in cui sembra onnipotente scopriamo che ha ancora bisogno di un salto qualitativo per avvicinarsi alla generalità del pensiero umano. Questa dualità tra potenza apparente e fragilità strutturale rende il dibattito ancora più affascinante. Forse la consapevolezza più preziosa che emerge dalla visione di Sutskever è che la strada verso l’AGI non è una corsa lineare ma un viaggio con improvvisi cambi di rotta. Le aziende che sapranno leggere questi segnali, che sapranno abbracciare un approccio più ispirato dalla biologia e dall’eleganza dei sistemi naturali, saranno quelle in grado di dominare la prossima fase dell’intelligenza artificiale. In fondo, come diceva Richard Feynman, la natura non è impressionata dalle nostre teorie, risponde solo a ciò che è vero. E la ricerca dell’AGI non fa eccezione.