Medicina generativa, tra allucinazioni regolatorie e promesse iperboliche. una dissezione critica di Dougallgpt, Glass.Health e le verità scomode dell’intelligenza artificiale clinica.

“Se una IA sbaglia una diagnosi, chi finisce in tribunale? Il codice o il medico?” Questa domanda, posta provocatoriamente durante un forum internazionale sul futuro dell’AI in medicina, sintetizza con precisione chirurgica l’intero dilemma etico, legale e tecnico dell’applicazione di modelli linguistici generativi (LLM) in ambito sanitario. In questo scenario si affacciano con promesse roboanti due protagonisti: DougallGPT e Glass Health, piattaforme di intelligenza artificiale progettate specificamente per supportare medici e strutture sanitarie nel processo clinico. La domanda da un miliardo di dollari è semplice: possiamo fidarci?

Partiamo dalla fine, come ogni romanzo ben scritto: no, non ancora. Ma anche sì, forse. Dipende. E qui comincia il teatro della complessità.

DougallGPT è una creatura della AI-based clinical intelligence, costruita per generare insight medici e supportare il ragionamento diagnostico. È basato su un modello LLM di tipo open-source addestrato su dataset clinici real-world, con un focus dichiarato su precisione e coerenza delle raccomandazioni. Glass Health, invece, è una piattaforma medica con ambizioni ancora più ampie: un copilota clinico integrato, con funzionalità che vanno dalla diagnosi differenziale alla generazione automatica di piani terapeutici, sfruttando knowledge graph e LLM verticalizzati. Entrambi affermano di rispettare standard elevati di sicurezza, privacy, trasparenza e responsabilità. Tutto molto bello. Ma basta a dormire sonni tranquilli?

Il white paper del World Economic Forum, in collaborazione con Boston Consulting Group, offre una lente perfetta per analizzare la questione: “Earning Trust for AI in Health”. Un titolo che è già una dichiarazione di impotenza sistemica. Non si tratta di implementare AI nella sanità, ma di guadagnarsi la fiducia del sistema sanitario. Un verbo scomodo, in un settore dove il rischio non è l’errore computazionale, ma la vita umana.

Nel mondo reale, i LLM medici come DougallGPT e Glass Health si muovono in un limbo epistemologico. I modelli non sono deterministici. Non rispondono con certezza. Esplorano probabilità. In medicina, la probabilità è utile per costruire ipotesi, ma devastante se usata per validare una diagnosi senza supervisione umana. DougallGPT si presenta come un alleato per i clinici, non un sostituto. Ma il design dell’interfaccia e la narrativa algoritmica suggeriscono un’autorità implicita. E questo è già un problema.

Glass Health, da parte sua, integra strutture semantiche avanzate e una forma di “memory graph” che simula il pensiero clinico longitudinale. Impressionante, senza dubbio. Ma chi ha supervisionato l’addestramento del modello? Quali dati? Quali bias? Quale stratificazione sociale, demografica, genetica è stata codificata nelle sinapsi digitali del sistema? Non è paranoia: è auditabilità. O meglio, la sua assenza sistemica.

Il white paper conferma che i framework normativi attuali sono inadeguati per questi nuovi attori probabilistici. Le regole che governano i farmaci e i dispositivi medici si fondano su un paradigma statico. Gli LLM non sono statici. Evolvono, apprendono, e peggio possono “allucinare”. Ovvero, generare risposte plausibili ma totalmente false. Un comportamento che in medicina può significare la differenza tra vita e morte.

Nel frattempo, il sistema regolatorio globale si frammenta in schizofrenia geopolitica. Gli Stati Uniti spingono per innovazione senza freni, confidando nel privato come motore di progresso. L’Europa, con l’AI Act, impone livelli di rischio e categorizzazioni draconiane. Il Sud Globale? Regolazione inesistente o in costruzione. E intanto le IA mediche si espandono viralmente, sfuggendo a ogni controllo transfrontaliero. Glass Health oggi è disponibile a qualsiasi medico nel mondo. Quali barriere esistono per impedirne l’uso improprio in contesti con standard clinici minimi?

Il documento del World Economic Forum indica tre leve strategiche per risolvere il problema. Primo: aumentare la capacità tecnica dei regolatori. Secondo: creare ambienti di testing realistici, come i regulatory sandboxes. Terzo: costruire partnership pubblico-private con regole ben definite. In altre parole: simulare prima di sperimentare, collaborare invece di controllare, testare in condizioni reali prima del rilascio. La domanda è se startup come DougallGPT o Glass Health siano pronte ad accettare questi vincoli. Oppure preferiscano la via rapida al mercato, quella che porta investimenti, hype e viralità, ma lascia ai medici l’onere della responsabilità legale.

Il nodo gordiano resta la post-market surveillance. I modelli non sono finiti quando li rilasci. Anzi, è lì che cominciano a comportarsi in modo imprevedibile. Il white paper è chiaro: serve una sorveglianza continua, con metodi che integrino real-world data, farmacovigilanza digitale e modelli di validazione indipendente. La FDA americana sta già costruendo strumenti per monitorare le AI mediche dopo il rilascio. L’Europa, come sempre, discute. L’Africa e il Sud America? Guardano.

DougallGPT afferma di integrare sistemi di feedback continuo. Ma chi garantisce la validità di quei feedback? Sono supervisionati? Annotati da medici? Oppure sono semplicemente click su una UI? Glass Health dice di lavorare con knowledge graph clinici aggiornati. Ma nessun knowledge graph, per quanto sofisticato, può replicare l’incertezza ontologica del corpo umano. L’intelligenza artificiale, per ora, non ha un corpo. Non soffre, non sanguina, non muore.

La grande illusione della medicina generativa è che il linguaggio basti. Ma il linguaggio medico è ambiguo, contestuale, culturalmente mediato. Dire “dispnea” in un pronto soccorso di Lagos non è la stessa cosa che scriverlo su UpToDate. L’AI ignora queste sfumature. I suoi token sono uniformi, ma il corpo umano non lo è. Ecco perché affidarsi esclusivamente a un LLM per la diagnosi è come guidare bendati su una strada di montagna con il GPS aggiornato al 2018.

In mezzo a tutto questo, il vero rischio è epistemologico: l’overtrust. Se l’IA clinica fornisce risposte fluenti, autorevoli, e visivamente “pulite”, il medico già sotto pressione, sovraccarico, magari stanco – sarà tentato di delegare. Non per ignoranza, ma per necessità. Il burnout, come ricorda l’OMS, colpisce metà della forza lavoro sanitaria globale. DougallGPT non si stanca mai. Glass Health non va in pausa. La tentazione è reale. Ma chi paga quando sbagliano?

C’è poi una questione etica ancora più sottile: la standardizzazione. Se tutti usano gli stessi LLM, su dataset simili, il rischio è un’omogeneizzazione del pensiero clinico. L’intelligenza artificiale può diventare un amplificatore di bias sistemici, un “flattening” delle opinioni, un acceleratore di protocolli troppo rigidi. La medicina, al contrario, è fatta di eccezioni, di dubbi, di scelte non algoritmiche. Ogni paziente è un caso a sé. Lo dicevano già i medici ippocratici. L’AI, invece, tende al cluster.

È quindi il momento di smettere di chiedere se questi strumenti siano “affidabili” in senso assoluto. La domanda giusta è: in quali condizioni, per quali scopi, con quale supervisione e dentro quali vincoli etici e regolatori possiamo renderli utili, senza trasformarli in minacce latenti? Finché non avremo risposte chiare, il consiglio è pragmatico: usateli come consulenti junior, mai come oracoli infallibili. E non dimenticate mai che, se sbagliano, non saranno loro a finire in tribunale. Sarete voi.

La medicina generativa sta arrivando. È brillante, affascinante e pericolosa. Come un bisturi: può salvare o uccidere, a seconda di chi lo impugna. Siamo sicuri di avere le mani abbastanza ferme?