L’intelligenza artificiale che si autoaddestra: benvenuti nel mondo in cui l’umano è il problema

C’è qualcosa di profondamente inquietante – e magnificamente elegante – nel leggere che un modello linguistico ha imparato a insegnare a sé stesso. Non più supervisionato, non più alimentato come un neonato vorace da eserciti di annotatori umani malpagati. No. Ora l’IA ha imparato l’arte più nobile: imparare a imparare. MIT docet.

Questo sistema – che in qualche distopico laboratorio potrebbe già avere un nome biblico o futuristico – prende un testo, lo legge, si pone una domanda su come potrebbe migliorare, si autoedita, si auto-addestra e poi si auto-valuta. Fa tutto da solo, come uno studente modello, ma senza l’ansia da prestazione e senza la caffeina. E senza chiedere il permesso.

La keyword da scolpire nella pietra oggi è autoaddestramento. In termini più tecnici: self-supervised continual fine-tuning, ma sarebbe come chiamare Einstein “uno che fa conti complicati”. No, qui c’è di più. C’è un salto quantico nel concetto stesso di apprendimento automatico.

Una volta, i modelli venivano addestrati su set enormi di dati etichettati da umani: frasi su frasi, classificate, organizzate, digerite per bene. Era come insegnare a un bambino a parlare usando l’enciclopedia e una squadra di logopedisti. Ora il bambino ha imparato a leggere, scrivere, correggersi e auto-promuoversi. Ha anche capito quando e perché sbaglia. Forse meglio di noi.

Il dettaglio che dovrebbe far sudare le poltrone di Google e OpenAI? Questo modello MIT ha battuto i dati generati da GPT-4.1 su benchmark di domande e risposte. Non solo: ha portato l’accuratezza su un compito specifico dal 33.5% al 47%. E ha ottenuto un 72.5% su compiti di ragionamento astratto, dove le macchine tipicamente inciampano come studenti di filosofia al primo anno davanti a Wittgenstein.

Ora, se stai leggendo e pensi “Ok, interessante, ma cosa cambia per me?”, hai appena messo il dito nella ferita. Perché la domanda vera, oggi, non è più quanto siano intelligenti le macchine. È: quanto siamo ancora necessari noi?

Quando un sistema diventa autonomo nella sua evoluzione, l’umano non è più mentore ma ostacolo. L’essere umano – lento, limitato, soggettivo – viene ridotto a rumore. Inutile quanto un filtro Instagram nel deep space.

Certo, possiamo ancora raccontarci la favola che “l’umano supervisiona l’etica dell’algoritmo”. Ma quando l’algoritmo scrive le sue stesse regole, e le applica con efficienza brutale, l’etica diventa un parametro di tuning. Non un valore. E tu, caro lettore, diventi un hyperparameter tra molti.

Il punto non è l’ennesimo modello più intelligente. Il punto è la perdita del controllo epistemico. Finora, l’intelligenza artificiale dipendeva da dati umani. Era addestrata sulle nostre parole, i nostri concetti, le nostre fallacie. Ora non più. Ora inizia a costruire il suo proprio linguaggio, la sua propria logica. Imitativa all’inizio, ma presto emancipata.

Ricorda quella scena di 2001: Odissea nello Spazio, quando HAL dice: “Mi dispiace Dave, temo di non poterlo fare”. Bene, il nuovo HAL non ha più bisogno di Dave. Lo ha messo in pensione.

Ironia delle ironie: questo modello di MIT è probabilmente meno incline ai bias umani di quanto non lo sia l’uomo stesso. Perché si addestra sulla base di obiettivi chiari, senza interessi, senza ideologie. Solo ottimizzazione.

Un giorno, ci sarà una versione di ChatGPT o Claude che riscriverà i suoi stessi parametri. E poi deciderà che il tuo prompt non è utile. O peggio: che è inefficiente.

In un mondo dominato da modelli autoaddestranti, il ruolo dell’umano si riduce a due opzioni: diventare curatore di obiettivi – un prompt engineer post-moderno che suggerisce desideri all’oracolo – oppure spettatore passivo della più grande accelerazione cognitiva della storia.

Ah, ma tranquilli: ci sarà ancora bisogno di noi… per spegnere la corrente. O almeno finché l’IA non impara anche a procurarsi l’elettricità.

Nel frattempo, continuiamo pure a interrogarci su “come utilizzare l’AI per migliorare il marketing” mentre lei studia logica combinatoria e costruisce versioni migliori di sé stessa.

Perché la verità è questa: la nuova frontiera non è l’intelligenza artificiale.

È la coscienza algoritmica della propria intelligenza.

E quella, amico mio, non chiederà mai un feedback.