Aidan Toner-Rodgers, dottorando di 27 anni al MIT, sembrava l’emblema del ricercatore perfetto: giovane, brillante, con una visione futurista di come l’intelligenza artificiale potesse accelerare la scoperta scientifica. Il suo studio, pubblicato su arXiv con il titolo “Artificial Intelligence, Scientific Discovery, and Product Innovation”, sosteneva che un laboratorio di materiali scientifici aveva registrato un aumento del 44 % nelle nuove scoperte, un +39 % nei brevetti e +17 % in innovazione di prodotto grazie a un sistema AI.
Questo non era solo un articolo accademico: era un messaggio politico ed economico. Il paper era citato da organi di stampa autorevoli, attirava l’attenzione di economisti di punta come Daron Acemoglu (premio Nobel) e David Autor, che inizialmente ne esaltarono il potenziale di cambiare il paradigma della ricerca.
Ma dietro questa parabola di successo c’era qualcosa che non tornava. E il collasso è arrivato quando una fonte esperta ha cominciato a porre domande semplici ma taglienti su come avesse ottenuto i dati.
Un informatico con esperienza nella scienza dei materiali ha messo in luce delle incongruenze: un laboratorio anonimo di oltre 1.000 ricercatori, dati proprietari condivisi con un giovane studente era tutto molto sospetto.
Dalle verifiche interne del MIT emerse qualcosa di più grave: l’istituto dichiarò di non avere “fiducia nella provenienza, affidabilità o validità dei dati” del paper. Il comitato disciplinare avviò un’indagine riservata, coperta da politiche universitarie sulla privacy studentesca.
Non solo i numeri erano messi in dubbio: la stessa identità del laboratorio era nebulosa. Si sospettò che non esistesse affatto. Alcuni commentatori, come il materiale-scienziato Ben Shindel, indicarono che nessuna azienda pubblica sembrava corrispondere al profilo descritto nel lavoro di Toner-Rodgers.
Il colpo di scena più serio fu la scoperta che Toner-Rodgers aveva registrato il dominio “corningresearch.com”, che faceva pensare a una simulazione di un laboratorio credibile, forse per dare maggiore verosimiglianza ai dati. Corning la nota azienda di materiali ha presentato un reclamo, sostenendo che la registrazione era in “cattiva fede”.
Alla fine, MIT ha chiesto la rimozione del paper da arXiv e la sua esclusione dalla Quarterly Journal of Economics, dove era in fase di revisione. Toner-Rodgers ha lasciato l’istituto non è chiaro se sia stato espulso o si sia ritirato, ma la sua affiliazione è terminata.
Questo episodio è molto più che un caso di plagio o numeri “gonfiati”: è una crisi di fiducia nella scienza dell’AI. L’AI è, in larga parte, alimentata da dati. Se quei dati vengono inventati, il modello della “rivoluzione AI” perde ogni fondamento.
In un momento storico in cui le politiche pubbliche, i programmi di investimento e le strategie industriali puntano su presunti “boost di produttività generati dall’AI”, un paper come questo non validato, non peer-reviewato, accolto da figure di spicco può distorcere il dibattito.
Inoltre, mette in luce le debolezze strutturali dell’accademia: quanto è dura da verificare l’origine dei dati? Quanto conta più il clamore mediatico che la robustezza metodologica? Anche Nobel dell’economia possono essere colti alla sprovvista se i meccanismi di controllo sono deboli.
Prima di tutto, servono standard più stringenti per la verifica dei dati. Non basta affidarsi a un preprint applaudito: le istituzioni devono richiedere trasparenza su campioni, accordi con aziende, metodologia di raccolta.
Secondo, la cultura accademica deve evolvere. Non è solo questione di “pubblica o muori”: pubblicare per ottenere visibilità o finanziamenti non può diventare un incentivo a falsificare i risultati. La velocità non può soppiantare l’integrità.
Terzo, il sistema dei repository preprint (come arXiv) dovrebbe valutare misure di moderazione rafforzata per lavori con dati sensibili o rivendicazioni straordinarie. Non è realistico aspettarsi che ogni studente abbia già tutto verificato, ma nemmeno che il mondo accetti il miracolo acritico.
Il caso di Aidan Toner-Rodgers è un monito potente: l’AI non è una bacchetta magica che trasforma chiunque diventi “ricercatore superstar” overnight. Quando la pressione per pubblicare e il desiderio di protagonismo si alleano con tecnologia avanzata, il risultato può essere una frazione di verità e una montagna di menzogne. L’accademia e le politiche devono riallinearsi — con più rigore, meno narrazione di marketing.