C’è una strana euforia collettiva ogni volta che si parla di intelligenza artificiale applicata alla medicina. Un misto tra religione e marketing, come se l’algoritmo fosse l’unto del Signore disceso per guarire l’umanità. Eppure, come ha ricordato con sobrietà tutta istituzionale Maria Chiara Carrozza, Presidente del CNR, nel corso dell’evento “L’intelligenza artificiale all’incrocio dei saperi”, l’IA non è un taumaturgo, ma un sistema matematico-statistico di previsione che, se nutrito male, produce illusioni. Soprattutto se il menù lo preparano pochi cuochi con tanti interessi.

L’AI in medicina è ormai il cavallo di Troia perfetto per far passare qualsiasi narrazione tecnologica con il bollino della “salvezza pubblica”. Non è un caso che i primi casi d’uso mainstream riguardino la diagnostica, la chirurgia robotica, le terapie digitali e persino la medicina personalizzata. Parole magiche che suonano bene nei comitati etici e nei pitch di venture capital. Ma sotto la superficie liscia delle interfacce e dei dati, si agitano forze geopolitiche, squilibri informativi e una scarsa trasparenza sui modelli predittivi impiegati. È qui che si gioca la vera partita, e non nei rendering patinati dei laboratori universitari.

Carrozza, nel suo intervento, ha usato una formula chiave: “quanto più saremo in grado di impadronircene, tanto più potremo utilizzarla per liberare nuove forme di creatività e inventività”. In altre parole: l’AI non va temuta, ma compresa, decodificata, regolata e integrata. Una posizione lucida, non fideistica, e decisamente più vicina all’epistemologia che al clickbait da conferenza.

Il vero tema, che pochi hanno il coraggio di affrontare, è che l’intelligenza artificiale applicata alla medicina (e non solo) è oggi un campo minato dove convivono innovazione clinica e voracità commerciale. I dati sanitari, carburante indispensabile per alimentare questi algoritmi, non sono solo preziosi: sono oggetto di contesa globale. Chi li controlla ha un vantaggio strategico che va ben oltre la salute pubblica. Parliamo di modelli economici capaci di generare ricavi su scala industriale, con buona pace dei principi etici.

Prendiamo il caso delle “terapie digitali”, un termine che ormai ricorre ovunque. Dietro si nasconde una galassia di startup e piattaforme che propongono applicazioni smartphone come sostitutivi o più spesso integratori di cure tradizionali. In linea teorica, nulla di male. In pratica, chi certifica questi strumenti? Quali evidenze cliniche esistono dietro le loro promesse? Chi garantisce che non diventino nuovi strumenti di profilazione emotiva e cognitiva? Se il paziente viene tracciato mentre fa stretching virtuale post-ictus, siamo davanti a un progresso o a un esperimento comportamentale mascherato da terapia?

Il punto è che l’AI come ha ricordato la stessa Carrozza, non è neutra. Non lo è nel suo codice sorgente, non lo è nei dati che la nutrono, non lo è negli obiettivi che persegue. Un modello predittivo clinico può essere calibrato per migliorare la salute pubblica o per ridurre i costi di un sistema assicurativo. Due finalità legittime, ma profondamente diverse. Pensare che basti “istruire bene l’algoritmo” per ottenere risultati etici è ingenuo quanto pensare che basti leggere un bugiardino per guarire da un cancro.

E poi c’è la questione della formazione. Carrozza ha toccato un nervo scoperto: non esiste innovazione tecnica sostenibile senza una cultura interdisciplinare. I medici devono comprendere i meccanismi dell’IA, non per diventare data scientist, ma per sapere cosa c’è dietro l’opacità delle dashboard cliniche. Viceversa, chi progetta algoritmi non può ignorare la fisiologia, la psicologia, il contesto sociale di un paziente. Serve una nuova élite cognitiva capace di tradurre e negoziare tra mondi apparentemente incompatibili. E sì, serve anche un’etica, ma che non sia solo una dichiarazione d’intenti da incorniciare nei corridoi delle agenzie europee.

L’idea che l’intelligenza artificiale possa “liberare creatività e inventività”, come suggerisce Carrozza, è affascinante. Ma bisogna evitare di confondere la creatività con l’efficienza. Molti sistemi oggi spacciati per “intelligenti” sono in realtà sofisticati strumenti di automazione statistica. Funzionano bene quando c’è un passato da modellare, meno quando serve inventare un futuro. Questo è il limite strutturale di gran parte dell’IA attuale: eccellente nella ripetizione, mediocre nell’innovazione radicale.

Nel frattempo, la medicina continua a essere il laboratorio perfetto per testare i confini dell’algoritmo. Il paziente è un oggetto complesso, stratificato, imprevedibile. Non è un avatar da simulare ma una variabile umana da comprendere. La tentazione di delegare tutto al calcolo dalla diagnosi al trattamento è forte, ma rischia di disumanizzare il rapporto terapeutico. Nessun algoritmo, per quanto performante, può sostituire lo sguardo clinico, l’intuizione esperta, la responsabilità morale del medico. Al massimo, può amplificarne la capacità di azione. Ma solo se progettato per servire e non per decidere.

Ursula von der Leyen ha detto che vuole un’Europa digitale “aperta, equa, diversificata, democratica e sicura di sé”. Parole perfette per una brochure istituzionale, meno per un contesto in cui le infrastrutture digitali sono dominate da logiche estrattive e oligopolistiche. Il rischio è che l’etica dell’AI diventi un brand, una foglia di fico per continuare a fare business as usual. Per questo è essenziale sviluppare modelli pubblici di IA, aperti, verificabili, sottoposti al controllo democratico e non solo agli audit aziendali.

La medicina è il banco di prova più duro. Non si può sbagliare. O meglio: non si può fingere di non sapere chi paga il prezzo dell’errore. Carrozza ha ragione quando dice che il cambiamento va governato e orientato verso il bene comune. Ma per farlo serve un atto di coraggio: disinnescare la retorica salvifica e affrontare la realtà dei fatti. L’AI non è una panacea, è uno strumento potente. E come tutti gli strumenti potenti, amplifica ciò che siamo. Se il nostro sistema sanitario è iniquo, l’AI lo renderà ancora più iniquo. Se il nostro approccio è elitario, l’AO lo renderà ancora più escludente.

L’unico antidoto è costruire infrastrutture cognitive collettive. Rimettere l’umano al centro non come feticcio, ma come architetto dell’intelligenza che verrà. Perché alla fine, l’unico algoritmo davvero imbattibile è la capacità critica. E quella non la puoi scaricare da GitHub.