A Palazzo Lombardia, nel consueto salotto istituzionale dove il potere si veste da moderazione e i microfoni amplificano solo ciò che è già stato autorizzato, è andata in scena una delle rare occasioni in cui l’intelligenza artificiale è stata nominata senza scivolare nella fiera delle ovvietà. Il 23 giugno scorso, durante l’evento Salute Direzione Nord promosso da Fondazione Stelline, davanti a nomi che definire altisonanti è ormai protocollo – la vicepresidente del Senato Licia Ronzulli, il presidente di Regione Attilio Fontana, il ministro della Salute Orazio Schillaci – il vero protagonista non aveva cravatta ma codice: l’AI nella sanità.
Diciamolo subito. Quando un’infrastruttura come Seeweb prende il microfono e parla di medicina, qualcuno alza il sopracciglio. Quando però il CEO Antonio Baldassarra comincia a parlare di diagnostica per immagini e tumore ovarico non con la solita cautela da convegno, ma come chi sa perfettamente cosa si può fare oggi, allora il sospetto si trasforma in attenzione. Perché è chiaro che non siamo più nel territorio delle ipotesi ma della realtà, quella concreta, fatta di pixel che salvano vite.
L’idea che l’intelligenza artificiale in medicina sia una promessa per il 2030 è ormai ridicola. È come parlare di banda larga come tecnologia emergente. Siamo nel tempo della diagnosi aumentata, non in quello delle slide per il PNRR. E se qualcuno nel pubblico ha avuto la tentazione di derubricare tutto a “futuro prossimo”, bastava ascoltare un paio di esempi snocciolati da Baldassarra per capire che siamo già in ritardo sulla tabella di marcia. A partire da quella che ha definito, senza giri di parole, una “fase chirurgico-robotica guidata dall’AI”, dove l’algoritmo non solo assiste, ma prevede, corregge, riduce l’errore umano con un’efficacia che pochi chirurghi oserebbero contestare pubblicamente.
Non è solo questione di immagini o bisturi. È una rivoluzione anche nel primo passo del percorso sanitario, quello dell’anamnesi. Che senso ha far compilare moduli cartacei o PDF autocelebrativi quando un modello conversazionale può estrarre molto di più in meno tempo e con meno fraintendimenti? Se l’anamnesi è la premessa su cui si basa tutto il processo diagnostico, non è forse criminale continuare a farla con strumenti del secolo scorso? Ma la domanda retorica ormai è diventata sintomo patologico del nostro dibattito pubblico: sappiamo cosa funziona, ma preferiamo rimandare fino a che qualche direttiva europea ci obbliga a fingere entusiasmo.
E allora sì, ci tocca parlare di sandbox. Non quelle da spiaggia, ma le zone franche in cui si sperimenta davvero, lontano dai riflettori e, possibilmente, anche dalla burocrazia. Baldassarra lo ha detto chiaramente: servono ambienti interdisciplinari dove le regole non siano il freno a mano ma la pista di prova. Se vogliamo davvero capire cosa può fare l’AI in oncologia – che oggi è senza dubbio il campo più fertile – dobbiamo accettare un margine di rischio sperimentale, altrimenti tutto resterà nel limbo delle demo da congresso.
E qui sta il punto. Il nostro sistema sanitario, glorioso e appesantito, ha un’enorme difficoltà ad assorbire tecnologie che si muovono più velocemente della normativa. Ci servono meccanismi paralleli – non alternativi, non illegali, semplicemente più agili – in cui testare ciò che in altri Paesi è già routine. Perché mentre noi discutiamo di privacy, altri stanno salvando pazienti con modelli predittivi che analizzano migliaia di variabili in tempo reale. Forse è il caso di aggiornare la scala delle priorità.
Ronzulli ha detto, con la solennità che il palco impone, che “la salute è ciò che sta più a cuore agli italiani”. Il problema è che spesso il cuore batte, ma il cervello legislativo resta in arresto. E in questo vuoto decisionale si infilano le aziende come Seeweb, che propongono una visione molto meno romantica e molto più efficace: una sanità aumentata, dove l’umano non viene sostituito, ma potenziato. Dove la tecnologia non è un gadget da acquistare con i fondi europei, ma un alleato strategico per ridisegnare il modello stesso di cura.
Che ci piaccia o no, il paziente del futuro non sarà solo ascoltato da un medico, ma interrogato da un modello AI che avrà letto la sua storia clinica, le sue abitudini, forse anche i suoi post su Facebook, e sarà in grado di elaborare una risposta più completa, più coerente e forse più empatica di molti umani. Questo fa paura? Forse. Ma l’alternativa è mantenere in vita un sistema che fatica a tenere insieme visite, diagnosi e terapie, tra medici sovraccarichi e strutture obsolete.
E mentre i governi parlano, le GPU lavorano. Addestrano modelli, interpretano scansioni, predicono metastasi, suggeriscono terapie. L’intelligenza artificiale non aspetta il via libera della Conferenza Stato-Regioni. E se oggi, in Italia, se ne parla finalmente non in astratto ma a partire da dati reali e casi concreti, forse dobbiamo ringraziare anche quelle realtà che operano in silenzio ma producono impatti misurabili. Perché tra un convegno e l’altro, la medicina del futuro sta già curando qualcuno. Magari lo sta facendo nel silenzio di una sandbox, in una clinica privata, o su un server Seeweb, mentre noi discutiamo ancora se l’AI sia una minaccia o un’opportunità.
Chi aspetta che sia lo Stato a muoversi, probabilmente finirà a fare la coda in pronto soccorso. Gli altri stanno già progettando una sanità che non solo cura, ma anticipa. E in questo gioco a scacchi contro il tempo, le mosse migliori non arrivano dai decreti, ma dai dati.