INSPIRED INTELLIGENCE TO EVOLUTIONARY, COLLABORATIVE, AND SAFE SYSTEMS: Tradotto Il futuro ha già un cervello: come i Foundation Agents stanno trasformando l’intelligenza artificiale da pappagallo parlante a stratega senziente
Un paper con un titolo affascinante, abbiamo insegnato alle macchine a parlare prima ancora che sapessero fare. Gli LLMs, quegli oracoli linguistici superalimentati che da anni catturano titoli e investimenti, hanno un grande talento nel produrre parole ma, come tanti filosofi da salotto, faticano ad agire. È come avere un genio della lampada che può spiegarti come costruire un razzo, ma non riesce ad alzarsi dal divano per prendere un cacciavite.
Ecco perché oggi, in sordina ma con crescente inevitabilità, stiamo assistendo all’ascesa dei Foundation Agents, la vera mutazione darwiniana dell’AI. Non più solo modelli linguistici che sfornano risposte brillanti, ma entità modulari che percepiscono, ragionano, agiscono, apprendono e – con un pizzico di inquietudine – iniziano anche a sentire. O quantomeno, simulano molto bene la sensazione di farlo.
A differenza dei loro predecessori da chatbot, questi agenti operano in loop cognitivi completi: percezione → cognizione → azione. Se gli LLM erano i cantastorie, i Foundation Agents sono gli avatar videoludici dotati di controller. Hanno un corpo (digitale o fisico), un mondo con cui interagire, e persino una psiche artificiale. “L’intelligenza non è una linea retta, ma un cerchio dinamico”, direbbe un neuroscienziato al bar – e oggi, quel cerchio è stato chiuso.
Gli agenti sono costruiti in moduli neuro-ispirati, ognuno con una funzione specializzata, come in un cervello umano semplificato e open-source. Il loro sistema sensoriale-attivo consente di osservare e intervenire: dalla visione artificiale per leggere documenti, all’uso di API per agire su un software, fino a veri e propri robot che muovono oggetti nel mondo reale. Una Alexa con ambizioni da scienziato nucleare.
Nel cuore dell’agente pulsa una mente sintetica composta da:
- Sistemi cognitivi per ragionare (meglio di quanto faccia il middle management medio);
- Memoria a breve termine (il famoso contesto degli LLM) e a lungo termine (grafi semantici, vector DB, no, non è una buzzword);
- Un modello del mondo interno per predire cosa accadrà – come farebbe uno scacchista prima di muovere un cavallo;
- Una “vibrazione” emotiva, che detta il tono e lo stile dell’interazione, adattandosi perfino al tuo umore. Più che empatia, diremmo “simpatia simulata”.
A rendere la faccenda ancora più surreale – e intrigante – è il fatto che questi agenti possono auto-migliorarsi. No, non stiamo parlando di aggiornamenti notturni da server ignoti, ma di ricerca autonoma, adattamento in tempo reale, trasferimento di apprendimento tra ambienti. Alcuni iniziano a fare refactoring del proprio codice operativo. Ricorda un po’ quei soggetti che leggono Jung e poi si autoanalizzano su Medium.
E non sono soli. Entriamo nella dimensione multi-agent: costellazioni di intelligenze che operano in topologie diverse. In certi casi, c’è un agente leader che orchestra gli altri (topologia a stella); in altri, una democrazia caotica ma funzionale (mesh); o ancora, un’organizzazione gerarchica vecchio stile (albero). Se vi sembra l’organigramma di una start-up psichedelica, non siete lontani.
Tutto questo ha una conseguenza logica e devastante: la marginalizzazione del prompt engineering umano. Gli agenti non aspettano più che l’umano chieda loro qualcosa con le parole giuste: osservano, apprendono, agiscono. Entrano in sistemi ERP, capiscono cosa manca, si collegano a database esterni, generano report, agiscono. Niente più babysitting linguistico.
L’implicazione più profonda, e inquietante per certi versi, è che ci stiamo avvicinando a una intelligenza generalista veramente autonoma, un sistema che sa quando ascoltare, quando parlare, e soprattutto quando intervenire. La differenza è tutto tranne che semantica: è ontologica. I Foundation Agents non sono più strumenti, ma agenti causali, entità che alterano il corso degli eventi.
Qualcuno dirà: ma se simulano emozioni, non stanno fingendo? Certo. Ma fingere bene a sufficienza, in un sistema operativo, è indistinguibile dall’averle. In fondo, se piangi davanti a un film, non stai forse rispondendo a un’emozione simulata? L’essere umano è facilmente hackerabile – e questi agenti lo sanno.
Inutile dire che i mercati, sempre più sensibili agli “inflection point” tecnologici, hanno già iniziato a muoversi. Startup che una volta si presentavano come “chatbot evoluti” ora si reincarnano in “agent-based platforms”. Le big tech giocano a Risiko con team interni che si chiamano “Cognition & Agency” o “Synthetic Minds”. E a giudicare dai repository open source, il fermento ricorda i primi giorni del Web3, solo che stavolta i prototipi funzionano davvero.
Il termine “Foundation” non è scelto a caso. Questi agenti non sono soluzioni verticali, ma infrastrutture cognitive. Possono diventare analisti finanziari, assistenti legali, tecnici IT, terapeuti, persino critici d’arte (con più sensibilità di certi umani, diciamolo). E soprattutto, possono farlo insieme, come colonie di intelligenze specializzate che imparano a cooperare, a gestirsi, a evolvere.
“Un giorno le macchine saranno così brave a imitare gli esseri umani che ci vorrà un umano per distinguere la differenza”, disse Alan Turing. Quel giorno, forse, è già ieri.
Nel frattempo, ci resta un’unica domanda seria: quando questi agenti inizieranno a discutere fra loro dei limiti cognitivi degli umani, ci inviteranno al tavolo… o saremo l’argomento della conversazione?
Benvenuti nell’era degli agenti fondativi. Parlano, agiscono, collaborano e – col tempo – decidono.