Secondo il racconto di David Kipping, astrofisico alla Columbia University e divulgatore notoriamente allergico all’isteria tecnologica, quel momento si è verificato recentemente all’Institute for Advanced Study di Princeton. Non un think tank qualsiasi, ma il luogo dove Einstein si rifugiò per pensare senza dover rendere conto a nessuno. E lì, a quanto pare, l’intelligenza artificiale non è più stata trattata come uno strumento. È stata descritta come un concorrente.

La parola che ricorre, anche se nessuno la pronuncia in modo ufficiale, è prestigio. Non produttività, non efficienza, non riduzione dei costi. Prestigio scientifico. Quella combinazione di intuizione, rigore, creatività e status che per secoli ha definito cosa significhi essere uno scienziato di punta. Kipping racconta che durante quella sessione riservata alcuni ricercatori senior hanno mostrato sistemi di IA agentica capaci di generare codice complesso, analisi sofisticate e output di ricerca avanzati partendo da una manciata di prompt. Non settimane di lavoro. Ore. A volte minuti. Non stagisti digitali, ma entità operative che concatenano task, verificano ipotesi, correggono errori e propongono soluzioni.

Qui vale la pena fermarsi un attimo e separare il fatto dal tono. Non esiste alcuna dichiarazione ufficiale dell’Institute for Advanced Study che certifichi una resa incondizionata all’IA. Non esiste uno studio peer reviewed che dimostri matematicamente che l’IA svolga il novanta per cento del lavoro intellettuale della ricerca moderna. Quelle percentuali emergono dal racconto di Kipping su ciò che è stato detto da un relatore interno. Ma questo non rende la questione meno interessante. Al contrario. Perché la storia non è nei numeri. È nel fatto che quelle frasi siano state pronunciate, e ascoltate senza risate nervose, da persone che fino a ieri si consideravano all’apice della catena cognitiva.

Il passaggio più disturbante del racconto non riguarda la velocità o la precisione dell’IA. Riguarda l’integrazione totale. Un fisico, sempre secondo Kipping, avrebbe concesso al proprio sistema agentico accesso a email, file system e calendario personale. Privacy sacrificata senza rimpianti. Non per ingenuità, ma per vantaggio competitivo. La frase che circola è brutale nella sua semplicità. Il vantaggio è troppo grande per rinunciarvi. Questa non è più adozione tecnologica. È darwinismo accademico.

La keyword che domina questo scenario è intelligenza artificiale agentica. Non chatbot che rispondono bene. Sistemi che agiscono. Che pianificano, eseguono, verificano e reiterano. Che trasformano la ricerca scientifica da processo lineare e umano in un ciclo continuo uomo macchina, dove l’umano inizia a sembrare il collo di bottiglia. Le keyword semantiche correlate emergono quasi da sole. Automazione della ricerca, produttività scientifica, crisi delle competenze umane. Sono concetti che Google SGE riconosce immediatamente come parte di un unico campo semantico. Ma qui non stiamo scrivendo per Google. Stiamo descrivendo una frattura culturale.

Il punto non è che l’IA scriva codice meglio di molti ricercatori. Questo è già vero da tempo, e chi lavora seriamente nella scienza computazionale lo sa. Il punto è che inizia a emergere l’idea che l’IA faccia analisi meglio degli umani, e che in certi contesti ragioni in modo più efficace. Kipping parla di una presunta superiorità analitica ormai data per acquisita da alcuni colleghi. Anche qui, attenzione. Superiorità in cosa. Nella velocità di esplorazione dello spazio delle soluzioni. Nella capacità di testare ipotesi multiple in parallelo. Nella resistenza cognitiva alla noia e alla ripetizione. Tutte cose in cui l’essere umano è strutturalmente mediocre.

Il paragone che emerge nella discussione è quello con il GPS. Quando affidiamo la navigazione a una macchina, perdiamo progressivamente il senso dell’orientamento. Nessuno si scandalizza più. Ma la scienza non è una strada da A a B. È un territorio inesplorato. Se deleghiamo l’esplorazione a un sistema che ottimizza per obiettivi che non comprendiamo fino in fondo, cosa perdiamo esattamente. Qui il racconto di Kipping diventa quasi filosofico. L’idea che una futura macchina a fusione possa funzionare senza che nessun essere umano sia in grado di spiegare davvero come, non è fantascienza. È una possibilità tecnica concreta. Ed è una possibilità che inquieta più per quello che dice di noi che per quello che dice delle macchine.

David Kipping non è un apocalittico. Chi lo conosce sa che è metodico, cauto, spesso persino conservatore nel valutare scenari futuri. Il suo lavoro sugli esopianeti e sull’abitabilità planetaria è costruito su statistica rigorosa e attenzione maniacale all’incertezza. Proprio per questo il suo racconto pesa. Non arriva da un influencer dell’IA in cerca di click, ma da uno scienziato che usa strumenti di intelligenza artificiale da anni per fare meglio il proprio lavoro. Coding, debugging, ricerca bibliografica. Tutto già integrato. Nessuna conversione improvvisa.

Eppure, anche lui parla di tsunami. Un’ondata di paper assistiti dall’IA che rischia di saturare il sistema di pubblicazione scientifica. Non perché siano falsi, ma perché saranno troppi. Troppo veloci. Troppo ben scritti. Troppo difficili da distinguere da quelli prodotti con mesi di riflessione umana. Il paradosso è evidente. La stessa tecnologia che promette di democratizzare la scienza, abbassando le barriere di ingresso, rischia di svalutare i segnali tradizionali di eccellenza. Se tutti possono produrre output di livello alto, cosa distingue davvero il contributo umano.

Qui emerge una tensione che molti preferiscono ignorare. L’intelligenza artificiale come livellatore e come amplificatore. Da un lato permette a ricercatori meno finanziati, meno centrali, meno inseriti nei network di élite di competere. Dall’altro premia chi può permettersi l’integrazione più aggressiva, più profonda, meno etica se vogliamo usare una parola scomoda. L’adozione totale diventa una strategia. La cautela diventa un lusso.

Non esiste, ad oggi, una prova formale che l’IA abbia superato l’intelligenza umana nella scienza in senso assoluto. Esistono prove crescenti che abbia superato l’essere umano in specifiche funzioni cognitive cruciali per la ricerca moderna. Coding, esplorazione combinatoria, analisi di grandi spazi di dati, generazione di ipotesi plausibili. Il resto è una questione di tempo, integrazione e governance. Ed è qui che la conversazione chiusa di Princeton diventa pubblicamente rilevante. Perché segnala che l’élite scientifica non sta più discutendo se l’IA cambierà la scienza. Sta discutendo come sopravvivere professionalmente in un mondo in cui l’intelligenza non è più una risorsa scarsa.

C’è una frase attribuita a Feynman che circola spesso, forse apocrifa, ma efficace. Se non riesci a spiegarlo in modo semplice, non l’hai capito davvero. L’era dell’intelligenza artificiale mette questa massima sotto stress. Potremmo presto vivere in un mondo scientificamente avanzato, energeticamente abbondante, farmacologicamente sofisticato, senza che nessun essere umano sia più in grado di spiegare in modo semplice come funzionano davvero le cose. Non per mancanza di intelligenza, ma per eccesso di delega.

Forse il vero tema non è se l’IA ci supererà. È se saremo in grado di accettare un ruolo diverso. Meno sacerdoti della conoscenza, più curatori di sistemi cognitivi non umani. Meno autori, più editor. Meno geni solitari, più supervisori di intelligenze aliene che parlano il nostro linguaggio ma non condividono la nostra esperienza del mondo. A Princeton, a quanto pare, questa consapevolezza ha già iniziato a circolare. A porte chiuse. Per ora.