L’uso dell’intelligenza artificiale nel settore sanitario sta entrando in una fase più matura e, soprattutto, più regolamentata. Dopo l’annuncio di OpenAI su ChatGPT Salute, pensato per aiutare i pazienti a comprendere referti e prepararsi alle visite mediche senza sostituirsi ai professionisti, ora tocca alla concorrente Anthropic fare un passo decisivo. La startup americana ha presentato Claude for Healthcare, una versione del proprio chatbot pensata specificamente per il mondo della sanità. La notizia segna un ulteriore punto di svolta: l’AI non viene più proposta solo come strumento generico di supporto, ma come piattaforma integrata nei flussi clinici e di ricerca.

Anthropic ha chiarito che Claude for Healthcare è conforme all’HIPAA (Health Insurance Portability and Accountability Act), la legge Usa che rappresenta uno degli standard più rigorosi al mondo per la protezione dei dati sanitari sensibili. Questo significa che, almeno negli Stati Uniti, la soluzione può essere adottata da ospedali, cliniche e operatori sanitari per gestire e analizzare informazioni dei pazienti in modo formalmente compatibile con le norme sulla privacy.

Come nel caso di OpenAI, anche Claude potrà collegarsi alle app di salute presenti sugli smartphone, tra cui Apple Health, per offrire una visione più completa e integrata della situazione clinica di una persona. L’obiettivo dichiarato non è quello di “fare diagnosi”, ma di organizzare, spiegare e contestualizzare i dati, rendendoli più comprensibili sia per i pazienti sia per i professionisti.

Sul blog ufficiale, Anthropic spiega che la prima fase del progetto si è concentrata soprattutto su ricerca e sviluppo preclinici, includendo:

  • bioinformatica;
  • generazione di ipotesi scientifiche;
  • supporto alla stesura di protocolli sperimentali.

Ora, però, l’azienda sta estendendo il focus alle operazioni di sperimentazione clinica e alle fasi regolatorie dell’intera catena di sviluppo dei farmaci e delle terapie. È un passaggio cruciale, perché porta l’AI sempre più vicino ai processi reali che determinano come un trattamento arriva (o non arriva) ai pazienti.

Non è un dettaglio secondario che l’amministratore delegato di Anthropic, Dario Amodei, sia un biofisico di formazione: la direzione strategica dell’azienda riflette una visione in cui l’AI non è solo un prodotto consumer, ma uno strumento scientifico e industriale. In questo caso l’obiettivo è quello di entrare nella routine quotidiana di medici, ricercatori e personale clinico.

Un dato importante anche perchè indica che la discussione non è più se l’AI verrà usata in sanità, ma come e con quali garanzie.

Solo pochi giorni fa, OpenAI aveva presentato in anteprima ChatGPT Salute, sottolineando un punto chiave: lo strumento non è pensato per sostituire i medici, ma per aiutare le persone a capire meglio esami e referti, preparare domande più consapevoli per gli specialisti e organizzare informazioni cliniche complesse.

È una linea di comunicazione prudente, quasi obbligata, vista la delicatezza del tema. E non a caso, il dibattito sulla responsabilità delle risposte dell’AI in ambito medico resta apertissimo.

A ricordare quanto il terreno sia scivoloso ci ha pensato anche Google. Secondo un report di TechCrunch, l’azienda avrebbe rimosso alcune risposte legate a domande sulla salute dalle sintesi generate dall’AI nel motore di ricerca (AI Overview), perché giudicate “poco chiare o inesatte”. Un segnale particolarmente importante: anche i colossi tecnologici stanno scoprendo che, in sanità, un’informazione imprecisa non è solo un errore tecnico, ma un potenziale rischio per le persone.

Da questo punto di vista, l’ingresso di strumenti come Claude for Healthcare e ChatGPT Salute apre scenari promettenti, tra cui una maggiore accessibilità alle informazioni mediche, una migliore organizzazione dei dati clinici, il supporto a ricerca e sperimentazione e anche la riduzione del carico burocratico per i professionisti. Sebbene poi, i rischi restino concreti. L’eccessiva fiducia nelle risposte dell’AI, i possibili errori o semplificazioni pericolose, eventuali problemi di privacy e sicurezza dei dati, sono tutti elementi che mostrano come la prudenza non possa essere considerata un “optional” nell’applicazione dell’AI al settore sanitario.

    La vera sfida dei prossimi anni non sarà solo rendere questi sistemi più potenti, ma renderli affidabili, verificabili e realmente al servizio di medici e pazienti. In sanità, più che in qualsiasi altro settore, l’innovazione tecnologica non può permettersi scorciatoie.