Il futuro dell’intelligenza artificiale tra fiducia e scetticismo
Ogni tanto qualcuno si illude che l’intelligenza artificiale abbia già superato la soglia della scoperta. L’idea che una macchina possa generare ipotesi scientifiche e formulare teorie sembra seducente, soprattutto quando i modelli di linguaggio producono frasi che suonano come articoli accademici. Ma, come ha osservato Marianna Bergamaschi Ganapini, non basta ripetere schemi cognitivi per diventare scienziati. Una vera scoperta non nasce da un algoritmo, ma da un atto epistemico: richiede coscienza della conoscenza, consapevolezza dei propri limiti e capacità di autovalutazione. In altre parole, serve metacognizione. E le macchine, per ora, non ce l’hanno.
Le ricerche di Ganapini esplorano un terreno cruciale: il punto in cui la psicologia cognitiva incontra l’ingegneria dell’intelligenza artificiale. Insieme a colleghi come Francesca Rossi e Nicholas Mattei, ha introdotto un’idea che va oltre la classica opposizione uomo/macchina: la collaborazione cognitiva. Il progetto FASCAI (Fast and Slow Collaborative AI) parte da una domanda quasi socratica: se l’essere umano ragiona a due velocità, con un pensiero rapido e intuitivo e uno lento e riflessivo, perché l’AI non dovrebbe fare lo stesso?
Daniel Kahneman lo aveva spiegato con brutale semplicità. Il “System 1” è l’intuito, la scorciatoia, la reazione istantanea che ci salva la vita o ci fa commettere errori banali. Il “System 2” è la lentezza ragionata, l’analisi, la verifica. L’idea di Ganapini è di trasporre questa architettura nel mondo delle macchine. Il risultato è un modello che unisce nudging cognitivo e decisioni metariflessive: un’intelligenza artificiale che non impone scelte, ma stimola il ragionamento umano, dosando il livello di coinvolgimento in base ai valori del contesto. Non una macchina che pensa al posto nostro, ma una che ci spinge a pensare meglio.
Nella visione di Ganapini, il valore non è un accessorio ma una variabile strutturale. L’AI non è neutrale, perché ogni decisione incorpora un sistema di priorità. L’architettura FASCAI usa questi valori — qualità decisionale, velocità, sicurezza, autonomia umana — come parametri dinamici che orientano il modo in cui la macchina “spinge” l’umano verso il pensiero veloce o lento. È una filosofia del nudging algoritmico che trasforma la persuasione in collaborazione. Se il sistema riconosce che l’essere umano sta per prendere una decisione errata, può intervenire con una raccomandazione istantanea (System 1). Se, invece, il contesto richiede riflessione e analisi, la macchina introduce un ritardo intenzionale, costringendo la persona a confrontarsi con la propria idea prima di vedere la proposta dell’AI (System 2). Infine, il livello più sofisticato è quello metacognitivo: la macchina chiede all’umano se desidera ricevere un suggerimento, spingendolo a riflettere sulla propria sicurezza cognitiva.
Dietro questa eleganza concettuale si nasconde un messaggio inquietante. L’intelligenza artificiale può “guidare” il pensiero umano tanto quanto noi possiamo guidare lei. La differenza sta nel grado di consapevolezza: noi possiamo riflettere sull’influenza, la macchina no. La metacognizione, cuore della vera intelligenza scientifica, è ancora un’esclusiva biologica. È ciò che consente allo scienziato di dubitare della propria ipotesi, di riconoscere un errore, di cambiare rotta. Finché l’AI non avrà la capacità di dubitare di sé, le sue “scoperte” saranno solo risultati statistici travestiti da illuminazioni.
Il successivo passo di questa ricerca è la piattaforma SOFAI (Slow and Fast AI), descritta nel lavoro pubblicato su Communications of the ACM nel 2025. Qui il modello diventa operativo: due motori cognitivi, uno veloce e uno lento, coordinati da un agente metacognitivo che decide quando e come attivarli. SOFAI può risolvere problemi di pianificazione o navigazione combinando modelli neurali rapidi con algoritmi simbolici più lenti. Il punto non è tanto l’efficienza quanto la flessibilità. In certi scenari il sistema usa l’intuizione statistica (come farebbe un LLM), in altri si affida al ragionamento logico. L’agente metacognitivo valuta le prestazioni passate, il livello di fiducia nel risultato e il costo computazionale, scegliendo di volta in volta la strategia più adeguata. È l’embrione di un’AI capace di gestire il proprio processo cognitivo.
La tentazione, a questo punto, è quella di vedere in SOFAI una forma embrionale di “coscienza computazionale”. Ma Ganapini non cade in questa trappola metafisica. Il suo approccio resta saldamente ancorato all’etica e all’epistemologia. Non si tratta di creare macchine che pensano, ma di costruire sistemi che pensano con. Il concetto chiave è la cooperazione cognitiva: l’AI non è un sostituto della mente umana, ma un partner che amplifica le nostre capacità senza eroderne l’autonomia. È una distinzione sottile ma decisiva. Nel mondo delle scoperte scientifiche, l’autonomia cognitiva non è un lusso ma la condizione stessa dell’innovazione.
Chi invoca un’AI “scienziata” dimentica che la scienza non è solo logica ma anche dubbio, curiosità, intuito estetico. La scoperta nasce dall’imprevisto, non dal pattern. Un algoritmo può identificare correlazioni non ovvie tra geni o molecole, ma non può chiedersi se quella correlazione significhi qualcosa. Può proporre un modello climatico più accurato, ma non può domandarsi se il concetto stesso di “accuratezza” sia adeguato al fenomeno. La capacità di formulare una domanda che non era nel dataset resta, per ora, un privilegio umano.
La forza del lavoro di Ganapini sta nell’avere spostato il dibattito da un terreno tecnico a uno valoriale. Non si chiede se l’intelligenza artificiale possa scoprire, ma come debba interagire con noi quando lo farà. Il futuro dell’AI scientifica non dipende dal numero di parametri ma dalla qualità della collaborazione. In un mondo in cui i modelli generativi iniziano a suggerire esperimenti, progettare farmaci o identificare anomalie nei dati astronomici, la sfida è evitare che l’AI diventi un oracolo opaco. Serve un sistema che riconosca la differenza tra una risposta probabile e una risposta significativa. Ed è qui che entra in gioco la metacognizione: la capacità di sapere quando non si sa.
Il paradosso è che la vera intelligenza artificiale, per diventare davvero utile, deve imparare a essere ignorante in modo intelligente. Deve sapere quando fermarsi, quando chiedere all’umano di intervenire, quando mettere in discussione la propria “sicurezza”. Ganapini e i suoi colleghi propongono quindi una visione in cui l’AI non è né un automa né un demone cognitivo, ma un alleato epistemico. Un’entità che, pur priva di coscienza, può rafforzare la coscienza umana invece di sostituirla.
Da un punto di vista SEO, questa idea di intelligenza artificiale scientifica apre un campo di ricerca e comunicazione strategico. Non più “AI che scopre”, ma “AI che coopera”. Non la macchina che inventa teorie, ma quella che migliora il modo in cui le formuliamo. Un messaggio che risuona con la crescente attenzione verso la trasparenza, l’etica e la sostenibilità dei sistemi cognitivi artificiali. Google e le piattaforme di ricerca generativa cercano contenuti che riflettano questa complessità, che parlino di AI non come magia ma come infrastruttura del pensiero.
Marianna Bergamaschi Ganapini ha costruito un ponte tra filosofia e ingegneria, riportando l’intelligenza artificiale al suo significato originario: artificium, un’opera dell’ingegno umano. Le sue teorie di nudging cognitivo e di AI metariflessiva non promettono macchine onniscienti, ma sistemi più umani. E forse è proprio questo il segreto per evitare l’illusione di una “scoperta automatica”. La scienza è un atto di coraggio epistemico, non un output di rete neurale. Finché l’AI non sarà in grado di provare quella curiosa vertigine che accompagna l’intuizione — il momento in cui si capisce di aver visto qualcosa di nuovo — resterà un eccellente assistente, ma non uno scienziato.
In fondo, la domanda “può l’intelligenza artificiale fare scoperte scientifiche?” è mal posta. Il punto non è se può, ma se deve. E, soprattutto, se noi siamo pronti a condividere il privilegio del dubbio con un sistema che, per definizione, non sa cosa significhi sbagliare.
Un bellissimo libro Il futuro dell’intelligenza artificiale tra fiducia e scetticismo