Quando mi hanno fatto la domanda “Cosa succede se l’intelligenza artificiale non migliora più di così?” mi è venuto spontaneo sorridere. Una frase così è un perfetto amo per attirare reazioni polarizzate, è una provocazione studiata, non una resa incondizionata. Il problema è che la maggior parte la interpreta come un giudizio definitivo sugli LLM, e quindi sull’intero settore, come se le due cose fossero la stessa cosa. Non lo sono. Lo ripeto da anni: LLM e intelligenza artificiale non sono sinonimi, e confonderli è stato il carburante principale della bolla finanziaria che abbiamo appena attraversato.

Negli ultimi anni ho visto con i miei occhi la costruzione di un’illusione collettiva. Si è passati da modelli linguistici “impressionanti” a “nuove forme di intelligenza umana in arrivo” con una velocità che definirei irresponsabile. Conferenze patinate, interviste autocelebrative, podcast di venture capitalist e demo che sembravano più trailer di Hollywood che prove tecniche. L’idea che bastasse scalare parametri e GPU per avvicinarsi all’AGI ha portato valutazioni aziendali in orbita e aspettative che nessun sistema basato solo su predizione statistica del testo avrebbe mai potuto soddisfare. Intanto, le voci realmente scientifiche Gary Marcus, Melanie Mitchell, Alison Gopnik continuavano a ricordare che non stavamo assistendo a magia emergente, ma a modelli di generazione linguistica avanzata.

Intelligenza artificiale, per me, è un campo che va ben oltre il text-to-text. È ricerca, ingegneria cognitiva, approcci neurosimbolici, agenti autonomi capaci di ragionare e agire in contesti non strutturati. Ridurla agli LLM è come ridurre la medicina a un lifting ben riuscito. Ed è in questo vuoto di narrativa che è arrivato Aloe. Non un unicorno gonfiato da pitch deck, ma un progetto costruito su decenni di scienza cognitiva, guidato da Arun Bahl, che non ha speso il suo tempo a fare tour mediatici, ma a risolvere problemi reali che gli LLM non sanno nemmeno formulare.

Quando ho visto i risultati su GAIA, il benchmark che misura la capacità di un assistente AI di affrontare compiti complessi e multimodali, sono rimasto colpito. Aloe ha superato OpenAI di venti punti in media, trenta sulle domande più difficili. E non stiamo parlando di qualche percentuale su un dataset di meme, ma di problemi che richiedono ragionamento, pianificazione e uso di strumenti reali. La parte più interessante? Quando Aloe si trova davanti a un problema per cui non ha lo strumento giusto, lo costruisce. Letteralmente. Scrive il codice, lo integra e lo utilizza subito, condividendolo poi con le altre istanze del sistema.

Questa capacità di auto-costruzione non nasce dal nulla. È il frutto di un’architettura ibrida che combina program synthesis, ragionamento neurosimbolico e moduli ispirati ai processi cognitivi umani. Qui non si tratta di fare il modello “più grande del mondo” per guadagnare punti su un benchmark statico. Si tratta di creare un sistema che, come un buon team in azienda, sappia riorganizzarsi in tempo reale quando il mercato cambia. Aloe non rincorre la scala infinita, abbraccia l’adattamento.

Questo approccio, per me, è un cambio di paradigma che mette in discussione tutta la narrativa dell’AGI costruita intorno agli LLM. Non serve più dire “basta aumentare la potenza di calcolo e ci arriveremo”. Servono architetture che integrino conoscenza esplicita, pianificazione e capacità di creazione di strumenti. In altre parole, serve tornare alla scienza cognitiva, quella vera, che conosce e rispetta la complessità dell’intelligenza.

Non dico che Aloe sia l’AGI. La distanza c’è ancora, ma per la prima volta dopo anni vedo qualcuno che corre nella direzione giusta. Gli LLM sono stati utili, ma ora il dibattito tecnico sta tornando a parlare di approcci ibridi, di combinare deep learning e ragionamento simbolico, di sistemi che non si limitano a generare testo plausibile ma che sanno agire in ambienti complessi.

Ricordo ancora quando, negli anni Ottanta, il dibattito tra connessionisti e simbolisti sembrava una guerra di religione. Aloe dimostra che non era una questione di fede, ma di integrazione. E la sua performance su GAIA è un argomento difficile da ignorare. Un sistema che sa costruire i propri strumenti può adattarsi a domini nuovi, con pochi dati e regole in continua evoluzione. Può operare dove gli LLM si bloccano, in scenari di ricerca scientifica, in contesti industriali, in operazioni critiche dove la latenza tra il problema e la soluzione è un fattore di sopravvivenza.

Naturalmente, tutto questo apre anche rischi concreti. Un sistema che può generare strumenti eseguibili in autonomia è potente, ma va regolato. Serve garantire che non diventi un vettore di vulnerabilità o abuso. È qui che dobbiamo essere lucidi: non innamorarsi della tecnologia al punto da dimenticare la sicurezza.

Quando rileggo la domanda di Newport, la vedo così: se “così” significa lo stato attuale degli LLM, allora sì, saremmo nei guai se non migliorassimo. Ma se guardiamo alla ricerca AI nel suo insieme, vediamo che i miglioramenti ci sono già, solo che non arrivano dalle direzioni più rumorose. E spesso passano inosservati perché siamo troppo impegnati a seguire la prossima demo virale.

Quello che mi interessa non è solo la tecnologia, ma il segnale culturale. Aloe è uscito in un momento di saturazione mediatica sugli LLM e ha comunque catturato attenzione grazie ai fatti, non alle promesse. È un segno che forse stiamo entrando in una fase meno teatrale e più sostanziale dello sviluppo dell’intelligenza artificiale.

Per me la lezione è chiara: l’AI non è un concetto monolitico. Gli LLM sono una tappa, non la destinazione. Se vogliamo arrivare a un’intelligenza davvero utile e generalista, dobbiamo guardare oltre il marketing e tornare alla scienza, a chi lavora nell’ombra su architetture che combinano adattamento, ragionamento e azione. Marvin Minsky diceva che non ci serve un’intelligenza che imiti l’uomo, ma una che faccia ciò che l’uomo non sa fare. Forse Aloe è il primo segnale concreto che ci stiamo muovendo in quella direzione. O forse è solo il promemoria che, quando togli la patina del marketing, resta ancora moltissima intelligenza artificiale da costruire