Nella medicina moderna, afferma il celebre radiologo Paul Chang, “il problema non è avere più dati, ma dare loro un significato comprensibile a chi deve agire in tempo reale”. Il che è esattamente il punto cieco dell’Intelligenza Artificiale in radiologia. In un’epoca in cui i modelli deep learning sembrano vedere tumori che l’occhio umano ignora, la vera domanda non è cosa vedano, ma come e perché. Perché se un algoritmo emette un alert con scritto “sospetta neoplasia”, e null’altro, siamo di fronte non a una diagnosi assistita ma a un’allucinazione tecnologica. È l’equivalente digitale di un grido nel buio. Come ogni allarme non spiegato, genera sospetto più che fiducia. Nessun tecnico radiologo degno di questo nome può accettare un sistema che si limita a dire “forse è grave”, senza fornire contesto, tracciabilità, logica clinica.

Il convegno TSRM di Latina 2025 si pone allora un obiettivo ambizioso quanto necessario: riscrivere il contratto semantico tra professionisti sanitari e intelligenza artificiale. Perché in radiologia, dove ogni pixel può cambiare una vita, non possiamo affidarci a modelli che parlano il dialetto oscuro delle probabilità. Serve un linguaggio tecnico ma umano, preciso ma adattivo. E soprattutto, serve spiegabilità. La famosa XAI explainable AI è diventata più di un acronimo da slide: è la nuova garanzia di fiducia tra tecnico e macchina, tra paziente e sistema.

Un’AI che dice “80% sospetto” non sta aiutando. Sta solo trasferendo il peso decisionale su spalle già cariche di responsabilità. Il tecnico radiologo si ritrova davanti a output visivi che sembrano pensati per Instagram, non per una sala TAC. Il radiologo riceve dettagli iper-tecnici sui layers convoluzionali, ma non un solo riferimento al contesto clinico. Il paziente, sommerso da termini criptici, cerca spiegazioni su Google, trovando solo ansia. La conseguenza è uno strano paradosso: più intelligenza artificiale introduciamo, meno fiducia otteniamo. Perché? Perché stiamo sbagliando destinatario, tono, linguaggio. Spiegare non significa standardizzare. Significa adattare.

Un tecnico TSRM esperto non vuole solo sapere che un modello ha rilevato una lesione. Vuole capire dove l’ha vista, in che condizioni e con quali alternative scartate. Vuole un’interfaccia che rispetti la terminologia tecnica consolidata, che consenta simulazioni del tipo “cosa succede se questa regione viene ignorata?”, che integri la conoscenza pregressa del paziente. Vuole cioè un’estensione della propria competenza, non un sostituto con la sindrome del piccolo genio onnisciente. Il ruolo del tecnico radiologo resta centrale, ma ora più che mai ha bisogno di strumenti che sappiano spiegare, non solo predire.

Per i pazienti, il discorso è opposto. La spiegazione efficace è quella che elimina la paura dell’ignoto, non che la amplifica con parole latine e curve ROC. Usare metafore visive, analogie comprensibili, riferimenti al vissuto clinico. Dire “abbiamo fatto questo esame per capire meglio” è più efficace che elencare cinque indici diagnostici. Qui entra in gioco la narrativa. Non la favoletta rassicurante, ma la narrazione tecnica calibrata. Il racconto del perché si è scelto un percorso diagnostico. L’AI può aiutare, ma deve parlare come un medico di famiglia, non come un assistente di laboratorio sotto steroidi.

Per l’audit clinico e la qualità, la spiegabilità è ancora più fondamentale. Non si tratta solo di log file o di metadati: si tratta di rendere ogni decisione ricostruibile, ogni anomalia tracciabile, ogni rischio valutabile. Un algoritmo che cambia comportamento con i dati ma non spiega il cambiamento è un rischio sistemico, non un progresso. Con l’arrivo dell’AI Act europeo e l’aumento della pressione normativa, la trasparenza non è più opzionale. Serve documentare i bias ridotti, i dataset usati, le tecniche di validazione. Il tutto in un formato che regge un audit ma non manda in tilt i flussi clinici.

C’è poi un altro aspetto sottile, ma cruciale. La forma della spiegazione modella la percezione del rischio. Un output troppo ottimista può indurre eccessiva sicurezza. Uno troppo negativo può bloccare decisioni urgenti. Serve equilibrio, e serve consapevolezza narrativa. Lo stesso punteggio, presentato con contesto e inquadramento, può generare decisioni opposte. La spiegazione è un atto comunicativo, non solo informativo. Va pensata come parte integrante del processo clinico, non come allegato PDF.

Oggi emergono modelli di spiegazione adattiva. L’AI capisce a chi sta parlando e calibra il livello di dettaglio. È il minimo sindacale, ma ancora raro. Alcuni tecnici vogliono sapere tutto, altri preferiscono un’interfaccia pulita con solo alert rilevanti. Personalizzare la spiegazione non è un vezzo, è un fattore di outcome. La spiegabilità dinamica può ridurre gli errori, migliorare la compliance, accelerare i tempi di risposta.

Infine, la fiducia vera nasce da una nuova capacità: raccontare la storia dietro al punteggio. Non solo “hai un 87% di probabilità di lesione”, ma “il modello ha visto un’area ipodensa di 4 mm nel quadrante inferiore sinistro, correlata a precedenti anomalie simili, e ha escluso altre ipotesi meno probabili”. Non una scorciatoia statistica, ma un ragionamento tecnico trasparente. Perché l’AI può anche avere ragione, ma se non sa spiegarsi, resta solo una voce sintetica che pretende autorità senza responsabilità.

Nel mondo della radiologia diagnostica, una spiegazione generica è peggio di nessuna spiegazione. Perché crea illusione di comprensione, non comprensione reale. Tecnici radiologi hanno bisogno di insight tecnici, pazienti di empatia, la qualità clinica di evidenze documentate. Non basta più visualizzare dati. Serve costruire una narrazione decisionale. L’AI non può restare una scatola nera. Deve diventare un alleato parlante. Con tono tecnico quando serve. Umano quando conta. Preciso sempre.

Ai tecnici radiologi serve una chiamata all’azione chiara. Chiedete sistemi che parlino il vostro linguaggio professionale. Esigete trasparenza sui meccanismi decisionali. Partecipate alla definizione degli standard di spiegabilità, prima che lo facciano altri al vostro posto. Siate parte della rivoluzione narrativa dell’intelligenza artificiale in sanità. Non perché l’AI sia perfetta, ma perché spiegare è l’unico modo per renderla utile. O almeno, per renderla degna della nostra fiducia.

L’AI spiegabile non è il futuro della radiologia. È il presente che ci stiamo giocando ora. E come ogni decisione clinica, anche questa richiede visione, contesto e buon senso. Tre cose che nessuna macchina potrà mai imparare da sola.