C’è un momento preciso in cui una tecnologia smette di essere un giocattolo per power user e diventa un’infrastruttura sociale. ChatGPT Health nasce esattamente lì. Non nel marketing patinato di San Francisco, non nei comunicati rassicuranti sull’uso “solo informativo” dei dati sanitari, ma nel punto in cui milioni di persone hanno già deciso, spontaneamente, di affidare a un modello linguistico le domande più intime sulla propria salute, sul dolore, sull’ansia, sulla morte. OpenAI non sta creando un nuovo bisogno. Sta formalizzando qualcosa che esiste già. E questo è il vero problema.

ChatGPT Health viene presentato come uno strumento di supporto, non di diagnosi, non di trattamento. Linguaggio prudente, studiato con avvocati e medici, come da manuale. Ma la sostanza è più interessante della forma. Consentire la connessione di cartelle cliniche e dati di benessere significa spostare il baricentro della relazione medico paziente. Non verso l’IA, come temono i più ingenui, ma verso la piattaforma che media l’accesso alla conoscenza sanitaria. In altre parole, non stiamo parlando di una nuova app. Stiamo parlando di un nuovo gatekeeper cognitivo.

La keyword qui è ChatGPT Health, ma le keyword semantiche sono dati sanitari, privacy digitale e intelligenza artificiale in sanità. Tre concetti che separati sembrano gestibili, insieme diventano esplosivi. Perché la sanità non è un vertical qualunque. È l’unico settore in cui l’asimmetria informativa è strutturale e permanente. Anche il paziente più informato resta dipendente da chi interpreta i dati. Quando quell’interprete diventa una piattaforma AI generalista, il confine tra supporto e influenza si assottiglia fino a diventare teorico.

OpenAI insiste sul fatto che ChatGPT Health fornisce solo informazioni fattuali e generiche. Tecnicamente vero. Strategicamente irrilevante. Chiunque abbia costruito prodotti digitali sa che il valore non sta nell’atto esplicito di dare un consiglio, ma nel framing delle informazioni. Dire a un utente quali rischi considerare, quali domande porsi, quando “forse” è il caso di parlare con un medico, è già una forma di guida. Soft power cognitivo, non medical advice. Ma gli effetti sono reali.

C’è poi il tema che tutti fingono di non vedere, ma che ogni CTO con un minimo di esperienza riconosce subito. La separazione dei dati. OpenAI afferma che i dati sanitari sono criptati, separati dagli altri chat log, non usati per addestrare i modelli. Ottimo. È lo standard minimo. Non è una garanzia sistemica. Perché il vero rischio non è l’uso diretto oggi, ma l’evoluzione delle policy domani. Le architetture cambiano, le acquisizioni arrivano, i modelli di business mutano. I dati, una volta raccolti, restano.

Qui entra in gioco il grande equivoco culturale denunciato da Andrew Crawford del Center for Democracy and Technology. Molti utenti credono che i dati sanitari siano protetti per natura. Non lo sono. Sono protetti solo quando si trovano nel perimetro di soggetti regolati da leggi specifiche come l’HIPAA negli Stati Uniti. Un’azienda tecnologica che offre un servizio di AI conversazionale non rientra automaticamente in quel perimetro. E questo non è un dettaglio normativo. È un buco strutturale nella governance digitale della salute.

Il dato più inquietante, però, non riguarda ChatGPT Health in sé. Riguarda il contesto. OpenAI ha ammesso che oltre un milione di utenti a settimana parla di suicidio con ChatGPT. Non perché l’IA sia pericolosa, ma perché è disponibile, non giudicante, sempre presente. Questo ci dice due cose. La prima è che la piattaforma è già percepita come uno spazio di supporto emotivo. La seconda è che ogni nuova funzionalità sanitaria non entra in un vuoto, ma in un ecosistema psicologico già carico di aspettative.

Quando un advocacy group come Public Citizen parla di consenso debole e controllo limitato, non sta facendo ideologia. Sta descrivendo il modello di default dell’economia digitale. Accetti o rinunci al servizio. Non esiste una vera negoziazione. Non esiste granularità reale. E nel caso dei dati sanitari, questa asimmetria diventa eticamente tossica. Perché l’utente medio non ha gli strumenti per valutare rischi di re-identificazione, usi secondari, correlazioni future con altri dataset.

Il paradosso è che tutto questo avviene mentre l’Europa resta fuori. ChatGPT Health, almeno in questa fase, non è disponibile nell’Unione Europea e nel Regno Unito. Ufficialmente per ragioni regolatorie. In realtà perché il GDPR e il futuro AI Act rendono molto più costoso sperimentare con dati sanitari sensibili. Non più difficile, più costoso. E nel capitalismo tecnologico, il costo è la vera unità di misura dell’etica.

C’è un’ironia sottile in tutto questo. Le grandi piattaforme americane invocano l’innovazione per giustificare l’espansione funzionale dei loro prodotti. Poi scoprono che milioni di persone usano quegli stessi prodotti per affrontare crisi esistenziali. A quel punto l’innovazione diventa responsabilità. E la responsabilità diventa un problema legale. Da CEO, è un copione già visto. Da cittadino digitale, è una zona grigia inquietante.

ChatGPT Health non è il male. Non è nemmeno il futuro della medicina. È un sintomo. Il sintomo di una società che ha delegato la comprensione del mondo a interfacce conversazionali e ora scopre che quelle interfacce vogliono entrare nei territori più delicati dell’esperienza umana. Salute, mente, vulnerabilità. Non per cattiveria. Per domanda di mercato.

La vera domanda, quella che nessun comunicato stampa affronta, è un’altra. Chi governa l’evoluzione cognitiva di una popolazione quando l’accesso alla conoscenza sanitaria passa da una piattaforma privata globale. Non serve un complotto. Basta un product roadmap. Basta un A/B test. Basta un prompt suggerito “per aiutarti a capire meglio”.

Nel frattempo, il carico decisionale resta sulle spalle dell’utente. Sei tu che devi capire se fidarti. Sei tu che devi leggere le policy. Sei tu che devi decidere se collegare i tuoi dati clinici. Un modello perfetto per il business. Molto meno per una società che pretende di chiamarsi digitale e matura allo stesso tempo.

ChatGPT Health è solo all’inizio. Ma la direzione è chiara. L’IA non vuole curarti. Vuole spiegarti. E chi controlla la spiegazione, controlla il contesto. Il resto è semantica. E come ogni CEO sa, la semantica, nel lungo periodo, muove mercati più dei bilanci.

OpenAI News: https://openai.com/it-IT/index/introducing-chatgpt-health/