MIT ha letteralmente costruito un’IA che riscrive il proprio codice siamo pronti?

Quando ho letto il titolo del paper “Self-Adapting Language Models (SEAL)” di ricercatori del MIT, la prima reazione è stata: “Finalmente, uno step concreto verso l’IA che evolve da sola”. Ma tra l’emozione e il panico sì, panico controllato serve capire cosa sta davvero succedendo. Perché l’idea che un modello riscriva il proprio “codice” è affascinante quanto pericolosa.
Il cuore dell’innovazione: un modello che genera “self-edits”
SEAL non è per ora l’IA che si auto-programmi da zero. È piuttosto un framework che permette a un modello di generare le proprie istruzioni di aggiornamento (i cosiddetti self-edits) e usarle per modificare i propri pesi. In pratica, dato un input nuovo, il modello propone una serie di riformulazioni, esempi, strategie di apprendimento o settaggi di ottimizzazione, poi applica quell’editing come una mini-fintuning, valuta il risultato, e se migliora, si “premia” con un segnale di reinforcement learning.
Nella gerarchia interna del processo ci sono due cicli: un inner loop, dove il modello esegue l’auto-aggiornamento, e un outer loop, dove si misura l’efficacia e si raffina la politica di generazione dei self-edits.
Risultati convincenti (ma con caveat)
I ricercatori hanno testato SEAL su due domini: incorporazione di conoscenza (factual learning) e apprendimento few-shot, con risultati impressionanti su modelli più piccoli. Nella fase di “knowledge incorporation”, SEAL ha portato la precisione da ~32-33 % fino al 47 %, superando persino l’uso di dati sintetici generati da GPT-4.1. In ambito few-shot, su problemi astratti tipo ARC, un modello senza SEAL non riusciva nemmeno (0 %), con SEAL si è arrampicato al 72,5 %.
Tuttavia “riscrivere il proprio codice” non è letterale: SEAL non rigenera il codice sorgente del modello (architettura, operazioni matematiche), ma produce patch sotto forma di dati sintetici + istruzioni di ottimizzazione (ad es. learning rate, trasformazioni) che poi vengono usate per aggiornare i pesi.
Limiti inquietanti: dimenticanza catastrofica, costi, stabilità
Il prezzo da pagare è già emerso. Ogni ciclo di self-editing rischia di cancellare conoscenze precedenti fenomeno noto come catastrophic forgetting. Inoltre, SEAL è computazionalmente intensivo: generare candidati, testare, aggiornare, valutare tutto pesa moltissimo. Anche la frequenza degli aggiornamenti deve essere regolata con attenzione: non è pratico farlo in real time su modelli grandi.
Infine, lo stesso MIT mette le mani avanti: SEAL è promettente, ma non una soluzione magica per IA autoriflessiva illimitata.
Dove sta il “trucco” rispetto alle tue affermazioni
L’articolo che hai in mente sembra aver semplificato o esasperato. Dici “autonomamente riscrive il proprio codice” e “40 % di miglioramento nel recall” e “ha battuto GPT-4.1” claim non del tutto veri né universalmente confermati:
- SEAL migliora la “factual recall” in esperimenti controllati, ma non ho trovato conferme che parli di un +40 % costante su scala generale.
- In alcuni benchmark, SEAL supera GPT-4.1 in generazione di dati sintetici (nel contesto knowledge incorporation), ma non è un confronto testa a testa su ogni compito. (Jyo Pari)
- “Autonomamente aggiorna il proprio codice” è un’iperbole: riscrive se stesso in termini di ottimizzazione e dati, ma non riscrive la struttura architetturale o il paradigma matematico profondo del modello.
Il valore vero e la potenziale bomba è che questa ricerca traccia il sentiero verso modelli che possono imparare nel corso del tempo, non restare fossilizzati.
Implicazioni disruptive: educazione, sanità, software e politica
Immagina un tutor virtuale che non solo insegna, ma migliora se stesso man mano che interagisce con te. Oppure un agente clinico che assimila nuovi studi medici autonomamente, adattandosi ai database emergenti. Oppure un copilota di sviluppo che apprende i pattern interni della tua azienda, diventa più efficiente, non richiede più manuali aggiornamenti.
Ma è qui che entriamo nella zona grigia: chi controlla la “self-editing policy”? Chi garantisce che il modello non generi self-edits avvelenati o manipolatori? Se l’IA può riscriversi, come impedire deviazioni perverse? Non basta una supervisione umana occasionale: la governance deve evolvere insieme alla capacità evolutiva.
Domandina provocatoria: se un modello impara più velocemente della nostra capacità di regolamentarlo, chi detiene davvero il bottone?
Alcune questioni che già emergono:
- Il modello potrebbe “specializzarsi troppo” su dati recenti, sacrificando generalità.
- Potremmo avere manipolazioni emergenti nei self-edits (adversarial hacks)
- La scalabilità su modelli da miliardi di parametri è ancora incerta
- Le normative attuali su IA (trasparenza, audit, controllo) partono da presupposti di modelli statici
MIT con SEAL ha fatto un passo audace: rendere possibile che un modello non resti mai fermo. Non siamo ancora davanti a Skynet che rinegozia la propria architettura, ma abbiamo forse superato la soglia dell’IA che “cresce” davvero. La domanda non è “se”, ma “quando” e “a quale costo”.