OpenAI ha presentato Prism con una promessa che, detta male, suona come marketing aggressivo e, detta bene, come una dichiarazione di guerra alla lentezza strutturale della ricerca scientifica. L’idea di fondo è semplice solo in apparenza: trasformare l’intelligenza artificiale da strumento occasionale, consultato a margine, in un collaboratore strutturale, integrato nel cuore dei flussi di lavoro scientifici. Non un chatbot brillante da interrogare quando si è stanchi, ma un’infrastruttura cognitiva permanente. Un cambio di postura, prima ancora che di tecnologia.
Il contesto non è marginale. OpenAI dichiara che ogni settimana oltre 1,3 milioni di utenti usano ChatGPT per discutere di scienza e matematica avanzata. Non divulgazione da social network, ma algebra, fisica teorica, biologia computazionale, medicina. Un dato che racconta una verità scomoda per molte istituzioni accademiche: l’adozione dell’AI nella ricerca non è futura, è già avvenuta, in modo informale, disordinato, spesso non dichiarato. Prism nasce per portare questo uso spontaneo fuori dalla zona grigia e trasformarlo in sistema, metodo, infrastruttura.
L’ambizione è portare ChatGPT e i modelli più avanzati della serie GPT-5.2 al centro del software che gli scienziati usano ogni giorno, nello stesso modo in cui negli ultimi anni i modelli generativi sono stati inglobati negli editor di codice. Se il “vibe coding” ha normalizzato l’idea che un programmatore lavori in tandem con un’AI, Prism prova a fare la stessa operazione con la scienza. Non è un dettaglio semantico. È un tentativo di ridefinire cosa significhi oggi fare ricerca.
Prism non è presentato come un chatbot evoluto, ma come un ambiente di collaborazione scientifica. La differenza è sostanziale. Non si limita a generare testo o suggerire risposte plausibili, ma combina capacità di ragionamento avanzato, verifica formale e strumenti computazionali. Può interrogare database scientifici, generare ed eseguire codice, supportare simulazioni, assistere nella scrittura di articoli accademici, aiutare nella pianificazione sperimentale. In altre parole, riduce drasticamente la distanza tra un’ipotesi e la sua verifica, che oggi rappresenta uno dei colli di bottiglia più costosi della ricerca contemporanea.
Il punto chiave è il ruolo che OpenAI attribuisce all’AI. Non più assistente passivo, ma collaboratore scientifico. Un concetto che fino a pochi anni fa avrebbe fatto sorridere qualsiasi comitato etico, e che oggi viene formalizzato in report come “AI as a Scientific Collaborator”. ChatGPT, secondo questi studi, viene già usato per sintesi della letteratura, progettazione di esperimenti, debugging di codice, esplorazione di spazi teorici complessi. Prism non inventa questo comportamento, lo istituzionalizza.
Non a caso OpenAI parla di integrazione con istituzioni come MIT, Harvard, Oxford e il Lawrence Livermore National Laboratory. Non startup marginali, ma pilastri della ricerca globale. L’obiettivo dichiarato è triplicare la produttività scientifica riducendo frizioni cognitive e burocratiche. Detto brutalmente: meno tempo speso a cercare paper, scrivere codice ripetitivo, adattare formati, più tempo dedicato a pensare, verificare, scoprire. Una promessa che tocca un nervo scoperto di chiunque abbia passato anni tra grant application e revisioni infinite.
La parte più interessante, e anche più provocatoria, è il doppio binario su cui Prism opera. Da un lato il pensiero teorico, dall’altro la sperimentazione pratica. Sul fronte teorico, OpenAI cita i risultati ottenuti da modelli come GPT-5.2 Thinking nella risoluzione di problemi matematici complessi, inclusi casi legati a congetture attribuite a Paul Erdős. Qui entra in gioco un elemento cruciale: l’uso di sistemi di verifica formale come Lean, che permettono di controllare matematicamente la correttezza delle dimostrazioni. Non è solo generazione creativa, è rigore computazionale applicato alla matematica pura. Un campo che, per definizione, non perdona errori.
Sul fronte sperimentale, i casi d’uso raccontati da OpenAI sono ancora più indicativi. Un fisico che verifica nuove simmetrie nei campi gravitazionali con l’aiuto dell’AI. Una biotech come RetroBioSciences che progetta proteine con potenziale ringiovanente in tempi radicalmente inferiori rispetto ai cicli tradizionali, utilizzando un modello specializzato come GPT-4B Micro. Qui Prism diventa un acceleratore di iterazioni sperimentali, un moltiplicatore di tentativi intelligenti in spazi biologici enormi. Non sostituisce il laboratorio, ma ne comprime i tempi decisionali.
C’è poi la dimensione politica e infrastrutturale, che spesso viene sottovalutata ma che in questo caso è centrale. Prism non è solo un prodotto, è una proposta di architettura per la scienza del XXI secolo. OpenAI parla apertamente di un National Frontier AI Access Program, un programma che garantisca ai ricercatori pubblici l’accesso ai modelli di frontiera come oggi si garantisce l’accesso a telescopi, acceleratori di particelle o supercomputer. Il messaggio è chiaro: l’AI avanzata è una infrastruttura strategica, non un lusso per pochi.
In questa visione rientrano anche proposte come un AI Training Data Catalog, per rendere più trasparente e riutilizzabile il patrimonio di dati scientifici, e la creazione di hub dedicati all’energia e ai semiconduttori, due settori dove l’intensità computazionale è già un fattore limitante. È una visione che riecheggia la logica dei grandi programmi scientifici del Novecento, dal CERN al progetto Apollo, ma declinata in chiave algoritmica.
Tutto questo porta a una domanda inevitabile. Prism inaugura davvero una nuova era della ricerca o rischia di creare una dipendenza strutturale da piattaforme proprietarie? OpenAI insiste sul concetto di scienza aperta e democratizzazione dell’accesso, ma la tensione tra apertura e controllo rimane. Come sempre quando una tecnologia promette accelerazione, il vero rischio non è tecnico, ma sistemico. Chi definisce le priorità? Chi controlla l’accesso? Chi decide cosa è una scoperta valida quando il partner cognitivo è una macchina?
Eppure sarebbe miope liquidare Prism come l’ennesimo annuncio roboante. Il punto non è se l’AI sostituirà gli scienziati, una domanda ormai sterile, ma se cambierà il modo in cui la conoscenza viene prodotta. Prism suggerisce un passaggio dall’automazione alla co-scoperta. Un modello in cui l’AI affianca l’umano nella generazione di ipotesi, nella verifica delle prove, nella scrittura dei risultati. In fisica, biologia e matematica, il modello diventa una sorta di partner cognitivo capace di ragionare passo dopo passo, individuare connessioni interdisciplinari, segnalare incongruenze prima che diventino errori pubblicati.

Kevin Weil, vicepresidente di OpenAI per la scienza, lo sintetizza con una frase che sembra studiata per irritare i puristi e entusiasmare i pragmatici: l’IA sta diventando un vero collaboratore scientifico, e la velocità con cui sta migliorando segna l’inizio di una nuova fase di accelerazione della conoscenza. È una dichiarazione che non chiede permesso. E forse è proprio questo il punto. La scienza, per una volta, non sta inseguendo la tecnologia. Sta venendo riscritta insieme a essa.