Il fascino dell’intelligenza artificiale (AI) nel settore medico è sempre stato forte. Non c’è da stupirsi, quindi, che una start-up come DeepSeek abbia rapidamente conquistato i riflettori, attirando l’attenzione di ospedali in tutta la Cina grazie alla sua proposta di modelli open-source economici e potenti. Entusiasti per l’opportunità di risparmiare costi e migliorare l’efficienza diagnostica, oltre 300 ospedali hanno già integrato i modelli di linguaggio avanzato di DeepSeek nelle loro pratiche quotidiane, alcuni dei quali sono già un punto di riferimento nell’uso di LLM (modelli di linguaggio di grandi dimensioni). Ma le cose sono davvero così semplici come sembrano? I ricercatori di Tsinghua Medicine sollevano dubbi inquietanti sulla sicurezza clinica e la privacy, suggerendo che la rapida adozione di DeepSeek potrebbe celare dei pericoli nascosti.

La preoccupazione principale sollevata dagli studiosi cinesi è che, sebbene i modelli di DeepSeek possiedano notevoli capacità di ragionamento, tendano a generare risposte “plausibili ma fattualmente errate”. In altre parole, questi sistemi possono apparire competenti, ma rischiano di confondere i medici, che potrebbero accettare senza troppi scrupoli diagnosi errate o decisioni cliniche sbagliate. In un ambiente dove le vite umane sono in gioco, questo potrebbe tradursi in gravi errori diagnostici, pregiudicando la qualità del trattamento.

La questione, tuttavia, va oltre la mera accuratezza dei dati. DeepSeek ha ottenuto una visibilità globale grazie ai suoi modelli ad alte prestazioni, come i V3 e R1, ma l’esperienza suggerisce che non tutto ciò che brilla è oro. Secondo Wong Tien Yin, professore di oftalmologia presso l’Università di Singapore, e i suoi colleghi, il rischio più grande è che i medici diventino dipendenti da questi strumenti, abbassando il loro livello di attenzione critica. Affidarsi a un’AI che genera output verosimili ma non completamente affidabili potrebbe portare alla creazione di errori sistemici, dove la responsabilità finisce per essere distratta da una macchina che, purtroppo, non è infallibile.

Ma la questione non si limita solo alla qualità delle risposte: c’è anche il problema della sicurezza informatica. Se il sistema di DeepSeek viene installato direttamente nei singoli ospedali, come molte strutture cinesi stanno facendo, il carico di gestione della privacy e della protezione dei dati viene trasferito completamente sulle strutture sanitarie. E qui emerge un problema serio: molti ospedali, specialmente quelli nelle aree più periferiche o meno avanzate, non sono equipaggiati con infrastrutture di cybersecurity adeguate. Di fatto, questa scelta, nata per proteggere i dati sensibili in ambito clinico, potrebbe rivelarsi una “finta sicurezza” che non fa altro che spostare il problema più in basso, ad un livello dove la protezione non è garantita.

Tutto ciò porta a una riflessione amara: la tecnologia, pur promettendo rivoluzioni nel trattamento sanitario, potrebbe avere effetti collaterali devastanti. Invece di liberare i medici e i pazienti da fatiche e incertezze, l’adozione inconsapevole dell’intelligenza artificiale potrebbe minare la fiducia nel sistema sanitario e creare una nuova forma di disuguaglianza, dove solo gli ospedali con risorse sufficienti possono veramente proteggere la privacy e la sicurezza dei pazienti.

Non c’è dubbio che l’adozione di AI nel settore sanitario sia destinata a crescere. Ma prima di diventare “il futuro”, la medicina deve imparare a fare i conti con una verità poco affascinante: non tutto ciò che sembra essere un progresso lo è davvero. In altre parole, l’adozione dell’AI, proprio come un medico alle prime armi, deve passare per un lungo periodo di test e affinamento, in cui la supervisione umana rimane un elemento imprescindibile.

Quindi, la prossima volta che vedete un titolo che proclama un miracolo della tecnologia in medicina, ricordatevi che, come diceva qualcuno, “se una cosa sembra troppo bella per essere vera, probabilmente non lo è”.