Nella medicina moderna, afferma il celebre radiologo Paul Chang, “il problema non è avere più dati, ma dare loro un significato comprensibile a chi deve agire in tempo reale”. Il che è esattamente il punto cieco dell’Intelligenza Artificiale in radiologia. In un’epoca in cui i modelli deep learning sembrano vedere tumori che l’occhio umano ignora, la vera domanda non è cosa vedano, ma come e perché. Perché se un algoritmo emette un alert con scritto “sospetta neoplasia”, e null’altro, siamo di fronte non a una diagnosi assistita ma a un’allucinazione tecnologica. È l’equivalente digitale di un grido nel buio. Come ogni allarme non spiegato, genera sospetto più che fiducia. Nessun tecnico radiologo degno di questo nome può accettare un sistema che si limita a dire “forse è grave”, senza fornire contesto, tracciabilità, logica clinica.