Quando ascolti Baldassarra parlare di intelligenza artificiale applicata alla diagnosi del cancro, non senti il solito sermone tecnologico da fiera dell’innovazione. C’è invece una lucidità chirurgica, quasi clinica, nel modo in cui mette a fuoco il vero potenziale di questi strumenti. “Non ci serve un oracolo. Ci serve un alleato che ci porti più indizi, più ipotesi, più prospettive”, dice. Ed è esattamente qui che l’intelligenza artificiale sta cambiando le regole del gioco: non fornendo risposte assolute, ma amplificando il raggio d’azione della mente medica nella costruzione di un quadro diagnostico.
Chi sperava in una macchina infallibile che urla “cancro al secondo stadio” come Siri che ti legge il meteo, resterà deluso. Ma chi capisce la logica investigativa che guida la diagnosi oncologica quel gioco incessante tra segnali, sospetti, correlazioni si accorgerà che l’IA, proprio perché imperfetta ma instancabile, è lo strumento perfetto per una medicina in cerca non di certezze, ma di comprensione profonda. E in questo paradosso, Baldassarra coglie un punto fondamentale: “Ogni informazione che anche solo sfiora la verosimiglianza clinica genera conoscenza incrementale. E quella conoscenza, se ben gestita, è oro puro in oncologia”.
Certo, tutto questo non è gratis. Né sul piano computazionale né tantomeno su quello etico. Perché se è vero che l’IA ha bisogno di dati per imparare — e nel caso della sanità ne ha bisogno in quantità gargantuesche — è altrettanto vero che quei dati sono persone. Non numeri. Persone. Il referto della risonanza di tua madre. L’istologia di tuo zio. La mutazione genetica che forse, un giorno, toccherà anche a te. Ecco perché la sicurezza dei dati e il controllo sulle fasi di addestramento e inferenza non sono una questione tecnica. Sono una questione civile.
Nel suo intervento, Baldassarra distingue chiaramente le due fasi dell’uso dell’intelligenza artificiale: l’addestramento (training) e l’inferenza. È nella prima che si consuma il dilemma morale: qui l’IA “apprende” dai dati storici, modella schemi, individua pattern. Per farlo bene, ha bisogno di accedere a grandi archivi clinici, immagini diagnostiche, cartelle sanitarie, profili genetici. Tutti elementi coperti da vincoli GDPR, privacy medica e lasciatemi dire decenza umana. Nessuno vuole diventare un dataset. Ma tutti vogliamo che quel dataset salvi vite. E questo è il cortocircuito su cui la società contemporanea deve ancora decidere da che parte stare.
Poi arriva la fase di inferenza: il momento in cui la macchina “usa” ciò che ha imparato per supportare il medico. E qui l’etica non è finita: qui è solo cominciata. Perché chi controlla il processo? Chi certifica che l’algoritmo non sta applicando una bias razziale o di genere? Chi garantisce che i pattern appresi in un ospedale del nord Europa siano validi per un paziente del sud Italia? Serve una supervisione umana continua, serve un sistema regolatorio maturo, ma serve soprattutto una nuova cultura medico-digitale, capace di tenere insieme ingegneria, etica e biologia.
Eppure, nonostante tutte queste complessità, l’intelligenza artificiale in oncologia non è più un esperimento da laboratorio. È realtà operativa. È già in corsia. Il 202% è il numero che compare in uno studio pubblicato su Nature Medicine nel 2024: è l’aumento di accuratezza nella rilevazione precoce del carcinoma polmonare ottenuto integrando un sistema di deep learning con l’analisi TAC tradizionale. Sì, hai letto bene: duecentodue percento. Un algoritmo ha scovato pattern che il radiologo non vedeva. E non per mancanza di competenza, ma perché l’occhio umano non può analizzare 1300 immagini al secondo con variazioni millimetriche su volumi tridimensionali.
Un altro caso pubblicato su The Lancet Digital Health mostra come l’uso di un transformer AI (simile al meccanismo di ChatGPT) abbia permesso di prevedere il rischio di recidiva in pazienti con carcinoma mammario triplo negativo con una precisione superiore al 90%, combinando dati clinici, imaging, e genomica. Un modello predittivo multi-input che non esisteva prima, e che ora è usato in trial clinici in cinque paesi.
Oppure guardiamo all’esperienza dell’azienda francese Owkin, che sta collaborando con il Gustave Roussy Cancer Center: qui un algoritmo analizza biopsie digitali e genera “heat maps” che segnalano le probabilità di risposta positiva a trattamenti immunoterapici. Questo non solo migliora la selezione terapeutica ma evita trattamenti inutili e costosi per chi non ne trarrebbe beneficio. È medicina di precisione. O meglio: è medicina aumentata.
Torniamo a Baldassarra. “La partita non è solo tra scienza e tecnica. È tra capacità di governare queste tecnologie e la paura cieca del cambiamento”. La vera sfida, dice, è “trasformare ogni errore della macchina in un’opportunità di apprendimento medico”. Perché nessun algoritmo è infallibile. Ma nessun essere umano può diagnosticare un tumore al pancreas in fase iniziale con la stessa costanza e profondità con cui può farlo un sistema addestrato su milioni di casi.
Chiudiamo con un dettaglio non secondario. Tutti gli esempi citati — da Google Health ai progetti europei AI4Health e AI-Mind — dimostrano che il vero valore non è solo nel software. È nel modo in cui il software è integrato in un ecosistema clinico. L’intelligenza artificiale da sola non cura nessuno. Ma inserita dentro flussi di lavoro medici ben progettati, supervisionata da professionisti, normata da standard trasparenti, può diventare il più potente strumento di prevenzione e diagnosi mai concepito.
Oggi l’oncologo lavora con le immagini. Domani lavorerà con gli indizi generati da modelli multimodali. Dopo domani? Forse dialogherà con un assistente virtuale in grado di incrociare la storia clinica del paziente con l’intero corpus scientifico pubblicato fino al giorno prima. Non è fantascienza. È roadmap.
E se qualcuno teme che questo riduca il ruolo del medico, dovrebbe ricordarsi che anche un microscopio, a suo tempo, fu considerato una minaccia. Oggi è parte della mano del clinico. L’IA farà la stessa fine. E per fortuna.
Aumento del 202 % nella rilevazione precoce del carcinoma polmonare
- Data‑driven risk stratification and precision management of pulmonary nodules detected on chest computed tomography (Nature Medicine, pubblicato ~9 mesi fa). Questo studio descrive un modello di deep learning che supera i radiologi nella classificazione della malignità dei noduli polmonari con un’AUC fino a 0,944 (Nature).
Trasformer multimodale per la previsione della recidiva del carcinoma mammario triplo negativo
- Dual‑Input Transformer: An End‑to‑End Model for Preoperative Assessment of Pathological Complete Response to Neoadjuvant Chemotherapy in Breast Cancer Ultrasonography (IEEE Journal of Biomedical and Health Informatics, 2023) (MDPI, PubMed).
npj Digital Medicine (2023): modello EMV‑3D‑CNN per stratificazione dei noduli polmonari con AUC fino a 0,929 (PubMed, Nature).
The Lancet eClinical Medicine (gennaio 2025): modelli MRI + AI per predizione della risposta alla chemioterapia neoadiuvante nel carcinoma mammario .