Study on the deployment of AI in healthcare

La Commissione Europea ha deciso di mettere un punto fermo, almeno sulla carta, al dibattito sull’intelligenza artificiale applicata alla sanità. Il suo final report, pubblicato con un certo tempismo politico e tecnico, non è un esercizio accademico. È un atto di posizionamento, quasi un monito: l’intelligenza artificiale non è più un esperimento di laboratorio, ma una leva strategica che plasma il futuro delle cure, della diagnosi, della prevenzione e persino della relazione medico-paziente. Per molti, è un futuro che inquieta. Per chi guida sistemi sanitari o aziende tecnologiche, è un terreno di conquista.

Il documento mette al centro concetti che suonano familiari ma che nascondono tensioni non risolte. Umano-centrico, etico, sicuro, formativo. Parole piene di buone intenzioni che sembrano tranquillizzare l’opinione pubblica e i regolatori, ma che nella pratica costringono l’intero ecosistema sanitario a un salto culturale che non ammette esitazioni. Perché parlare di AI Act, GDPR, MDR o EHDS non è una questione burocratica. È la geometria della nuova medicina digitale, dove la governance dei dati diventa più importante del bisturi, e dove un algoritmo può salvare o condannare un paziente più velocemente di quanto un comitato etico possa deliberare.

Il cuore della questione è che la sanità europea non è pronta, non ancora. Gli ospedali arrancano con sistemi informativi spesso obsoleti, frammentati, incapaci di dialogare. Le startup che sviluppano algoritmi predittivi di imaging o sistemi di supporto alla diagnosi devono combattere non solo con la difficoltà tecnica, ma con la giungla normativa che la Commissione ha provato a ordinare. GDPR, AI Act, MDR, IVDR, PLD, HTAR, EHDS: una sequenza che suona come una litania, ma che rappresenta in realtà la rete di vincoli e responsabilità che ogni player deve affrontare prima di portare un prodotto sul mercato. Una barriera d’ingresso tanto alta che rischia di scoraggiare l’innovazione più fragile, quella che nasce nei laboratori universitari e nei piccoli centri di ricerca.

Eppure, il report è chiaro: l’AI in sanità non è un’opzione, è una necessità. Gli algoritmi di triage che smaltiscono code al pronto soccorso, i sistemi predittivi che anticipano il rischio di epidemie, le piattaforme di telemedicina potenziate dall’analisi semantica delle conversazioni cliniche, sono già realtà in alcune regioni europee. Negare il loro impatto significherebbe condannare milioni di cittadini a un sistema sanitario più lento, più inefficiente e, in definitiva, meno equo. Non a caso, la Commissione parla di approccio umano-centrico: il messaggio è che la macchina deve rimanere un supporto, mai un sostituto del giudizio clinico. Ma la realtà è meno rassicurante. Già oggi, in silenzio, molti medici si affidano ciecamente alle raccomandazioni algoritmiche, spesso senza possedere la formazione per comprenderne limiti e bias.

La formazione, infatti, è la grande variabile dimenticata. Parlare di AI in sanità senza un piano massiccio di aggiornamento per medici, infermieri, tecnici e persino amministrativi è un esercizio sterile. Il final report lo sottolinea: serve alfabetizzazione digitale, serve capacità critica, serve la comprensione che un algoritmo è tanto utile quanto i dati che lo nutrono. E qui emerge il nodo più scomodo, quello dei dati sanitari. Il report ribadisce l’ovvio: qualità, sicurezza, protezione. Ma chi conosce davvero i reparti ospedalieri sa che i dati clinici sono spesso incompleti, mal strutturati, archiviati in sistemi chiusi e non interoperabili. In queste condizioni, parlare di intelligenza artificiale significa costruire castelli su fondamenta di sabbia.

La Commissione sembra voler mandare un messaggio agli stakeholder industriali: niente scorciatoie. Ogni algoritmo dovrà dimostrare trasparenza, robustezza, rispetto delle regole. Ma qui si annida il paradosso. Più le regole sono stringenti, più gli attori globali, le Big Tech che dominano i data lake e le infrastrutture cloud, avranno un vantaggio competitivo enorme rispetto alle aziende europee. La sanità del continente rischia di diventare un consumatore passivo di soluzioni sviluppate altrove, travestite da innovazione “eticamente allineata”. È il classico dilemma europeo: regolamentare prima di industrializzare.

Gli scenari aperti dal report sono dunque doppi. Da un lato, un futuro in cui la sanità digitale europea diventa laboratorio di governance etica e di tutela del cittadino, un modello da esportare. Dall’altro, un presente in cui la rigidità normativa soffoca l’ecosistema locale e consegna il mercato agli oligopoli tecnologici. Non è un dettaglio, è la differenza tra un’Europa protagonista e un’Europa satellite.

Vale la pena soffermarsi su un aspetto che il report tocca solo marginalmente ma che sarà il vero terreno di scontro: la responsabilità. Quando un algoritmo sbaglia una diagnosi, chi paga? Il produttore del software, l’ospedale che lo ha adottato, il medico che ha cliccato “approva” senza riflettere, o l’ente regolatorio che lo ha certificato? Il nuovo quadro giuridico con PLD e AI Act cerca di delimitare i confini, ma la realtà è che la responsabilità sarà sempre condivisa e quindi sempre ambigua. La certezza è che il cittadino paziente, quello che doveva essere al centro, finirà in mezzo a una battaglia legale che difficilmente comprenderà.

La narrativa dell’AI etica, ripetuta come un mantra, non basta più. Parlare di etica senza un piano concreto di accountability, trasparenza algoritmica e meccanismi di audit indipendenti equivale a vendere fumo. Le macchine non sono neutrali. Sono scritte da team di sviluppatori che portano dentro bias culturali, economici, politici. Sono addestrate su dataset che spesso escludono minoranze, popolazioni periferiche, pazienti con condizioni rare. Ogni decisione algoritmica è, in realtà, un atto politico.

L’impressione è che la Commissione, pur con buone intenzioni, stia ancora raccontando una storia più rassicurante che reale. Parla di trasformazione inevitabile, di centralità del paziente, di formazione del personale. Ma non affronta fino in fondo il nodo del potere. Chi controllerà davvero l’infrastruttura dati sanitaria europea? Chi avrà accesso agli immensi archivi digitali di cartelle cliniche e referti? Sarà lo Stato, l’Unione, o i soliti colossi che già oggi offrono soluzioni di cloud e intelligenza artificiale a ospedali e governi?

La sanità è il terreno perfetto per testare l’egemonia tecnologica, perché la posta in gioco è alta e i cittadini sono disposti a sacrificare privacy in nome della salute. Il report parla di umanità e sicurezza, ma in realtà ci invita a guardare in faccia la vera questione: fino a che punto siamo disposti a delegare al software le scelte più intime e decisive della vita umana? E quanto tempo abbiamo ancora prima che l’illusione del pieno controllo umano diventi soltanto una clausola contrattuale da citare nelle conferenze stampa di Bruxelles?