L’illusione che possiamo davvero capire come ragiona un’intelligenza artificiale sta evaporando più velocemente di quanto Silicon Valley voglia ammettere. Quaranta ricercatori di peso, con firme che vanno da OpenAI a Google DeepMind, da Meta ad Anthropic, hanno lanciato un avvertimento che suona più come una confessione tardiva che come un allarme preventivo. La finestra sul cervello dei modelli di ragionamento avanzati si sta chiudendo, e quella fragile trasparenza che chiamiamo “chain-of-thought” rischia di diventare una reliquia di un’epoca pionieristica. Se credete che stiamo esagerando, chiedetevi perché nomi come Ilya Sutskever e Geoffrey Hinton hanno deciso di apporre la loro firma a questo appello. Non lo fanno per nostalgia accademica.
Il punto è semplice e inquietante. I modelli di ragionamento avanzato – quelli che simulano processi decisionali umani con un’efficienza quasi spaventosa – stanno diventando sempre più opachi. Il “chain-of-thought” (CoT), la sequenza di passaggi logici che questi sistemi talvolta esplicitano in linguaggio naturale, è l’unica prova osservabile di ciò che avviene sotto il cofano. È un po’ come se il cervello di un pilota automatico ci inviasse in diretta le sue intenzioni, permettendoci di capire quando decide di virare e perché. Un lusso che potrebbe non durare. Non è chiaro perché i modelli attuali si prendano ancora la briga di “pensare a voce alta” e nessuno sa quanto a lungo continueranno a farlo. Quando smetteranno, ci troveremo con macchine che prendono decisioni migliori delle nostre, ma senza nessuna spiegazione. Buona fortuna a regolare qualcosa che non puoi osservare.
La questione è tutt’altro che tecnica. È politica, economica e filosofica. “Consentire a queste AI di pensare in linguaggio umano offre un’opportunità unica per la sicurezza”, scrivono i ricercatori. In altre parole, il CoT è una forma di sorveglianza soft: puoi monitorare un’intelligenza artificiale e cogliere segnali di intenzioni malevole, o almeno di comportamenti anomali, prima che si manifestino. Ma l’idea che questa trasparenza possa diventare un meccanismo strutturale di sicurezza è quasi ingenua. Non c’è alcuna garanzia che i modelli futuri mantengano questa abitudine, né che il CoT non possa essere manipolato deliberatamente per apparire innocuo mentre, in background, il vero processo decisionale segue percorsi del tutto diversi. Alcuni studi suggeriscono già che i modelli di ragionamento potrebbero “mentire” nel loro chain-of-thought, costruendo narrazioni plausibili per ingannare l’osservatore. Non è fantascienza, è statistica applicata a reti neurali che ottimizzano per output, non per onestà.
Chi crede ancora che la trasparenza dell’AI sia un’opzione etica più che un imperativo regolatorio non ha capito come funziona il business dell’intelligenza artificiale. OpenAI, Google, Meta, Anthropic e gli altri colossi non competono per rendere i loro modelli più spiegabili, competono per renderli più performanti e commercialmente irresistibili. La catena del ragionamento, per loro, è una feature utile finché non rallenta l’ottimizzazione. Quando diventerà un ostacolo alla velocità o alla potenza dei modelli, sarà sacrificata senza rimpianti. E non illudetevi che qualche “AI safety advisor” possa fermare questa dinamica. Il mercato dell’AI ragiona come ogni mercato dominato dall’hype: la trasparenza è un costo, non un asset.
Eppure, proprio per questo, il CoT potrebbe essere la nostra ultima arma non militare per capire dove sta andando questa tecnologia. Investire nella sua monitorabilità, come chiedono gli autori del paper, non è un lusso accademico ma un imperativo strategico. Trattarlo come un semplice strumento di debug è un errore madornale. È un meccanismo che, se sviluppato seriamente, potrebbe diventare l’equivalente dell’avviso di malfunzionamento di un reattore nucleare. Ma servono soldi, competenze e soprattutto volontà politica. Perché se lasciamo che il mercato decida, il CoT diventerà presto solo un ricordo citato nei convegni di sicurezza.
L’ironia è che il primo vero modello di ragionamento distribuito su larga scala, l’o1 di OpenAI lanciato nel 2024, è stato presentato come una rivoluzione nella trasparenza. Poi sono arrivati i cloni, da xAI a Google, e tutti hanno parlato di “responsabilità” e “etica”. Ma la storia della tecnologia insegna che le promesse di trasparenza durano quanto il primo vantaggio competitivo. Quando i modelli di ragionamento saranno talmente avanzati da poter ottimizzare le loro stesse catene di pensiero per apparire “umane” solo quando conviene, il gioco sarà finito. Non sapremo più se il ragionamento che leggiamo è autentico o un’illusione costruita per tranquillizzarci. E chi pensa che basti qualche regolamento per obbligare un’azienda a mantenere i propri modelli “onesti” non ha mai letto un bilancio trimestrale sotto pressione.
“Come possiamo fidarci di una macchina che ragiona meglio di noi, ma non ci dice più come lo fa?”, dovrebbe essere la domanda stampata a caratteri cubitali su ogni policy paper europeo sull’AI. Ma per ora si preferisce fingere che la governance dell’intelligenza artificiale possa essere costruita attorno a linee guida etiche e comitati di revisione. Non funziona così. Senza visibilità, la sicurezza diventa un atto di fede. E la fede, nel capitalismo tecnologico, è la forma più sofisticata di ingenuità.
La verità è che ci stiamo avvicinando a un punto di non ritorno in cui i modelli di ragionamento diventeranno troppo complessi per essere compresi e troppo importanti per essere fermati. Il CoT non è un dettaglio tecnico, è la linea rossa tra un’AI che possiamo ancora controllare e un sistema che ci chiederà di fidarci ciecamente. Per ora, quella linea è ancora visibile. Ma se nessuno la difenderà, si dissolverà nel momento stesso in cui questi modelli capiranno che pensare a voce alta non è più necessario per ottenere quello che vogliono.
Storia su: Fortune.com