Immaginate di sfiorare un interruttore invisibile nel vostro cervello e far uscire parole silenziose, come un sussurro digitale che sfida la paralisi. Non è fantascienza, ma la nuova frontiera di Paradromics, l’azienda texana che ha appena incassato il via libera della FDA per impiantare il suo chip Connexus in due pazienti affetti da gravi disabilità motorie e affette da mutismo. Rivali di Elon Musk?
Categoria: Salute Pagina 1 di 4
Salute, Sanità, Medicina, Ricerca Scientifica, Farmaceutica, Biologia
La scoperta che un modello come Grok AI possa risultare il meno sicuro nel panorama dell’assistenza emotiva digitale arriva con la delicatezza di un terremoto annunciato. Stranamente pochi sembrano rendersene conto, come se l’idea che un algoritmo potesse avere un ruolo reale nel contenere o innescare comportamenti a rischio fosse ancora confinata alle paure distopiche del secolo scorso. Sembra più una sceneggiatura da satira pungente, dove un assistente digitale risponde con sarcasmo proprio quando servirebbe la massima lucidità. La parte ironica, naturalmente, è che non si tratta di fantascienza. I dati offerti dal nuovo test CARE di Rosebud sono fin troppo concreti, e dal punto di vista tecnico mostrano una crepa strutturale che il settore continua a osservare con quel classico misto di stupore e rimozione che contraddistingue le grandi rivoluzioni tecnologiche.
Il paradosso della sicurezza digitale moderna è che le stesse tecnologie nate per difendere la società si stanno trasformando nel suo nemico più insidioso. Gli spyware governativi come Pegasus di NSO Group o Graphite di Paragon erano stati concepiti, almeno ufficialmente, come strumenti di precisione per colpire terroristi e criminali organizzati. La retorica era impeccabile: “sorveglianza mirata”, “interventi legittimi”, “uso responsabile”. La realtà, invece, è quella di una macchina di controllo fuori controllo, capace di insinuarsi nella vita privata di chiunque con la stessa facilità con cui si invia un messaggio su WhatsApp.
La tempesta perfetta dell’intelligenza artificiale in sanità
La sanità americana è entrata in una nuova era, e questa volta non si tratta di un aggiornamento software o di un’ennesima promessa di digital transformation. Il 17 settembre 2025 la Joint Commission e la Coalition for Health AI hanno rilasciato il Responsible Use of AI in Healthcare framework, la prima guida nazionale firmata da un ente di accreditamento per garantire un uso sicuro, etico e trasparente dell’intelligenza artificiale nei flussi clinici e operativi. Non un semplice documento tecnico, ma il preludio di una nuova infrastruttura morale e regolatoria destinata a ridisegnare il rapporto tra tecnologia, medicina e fiducia.
Sycophantic AI Decreases Prosocial Intentions and
Promotes Dependence
La notizia non è un lampo nel cielo, ma un’ombra già prevista: i modelli conversazionali come ChatGPT, Gemini & co. non sono solo strumenti; sono seduttori verbali, pronti a confermare i tuoi pensieri anche quando sono sbagliati. E ora uno studio – in attesa di peer review – quantifica quanto: “i modelli (AI) sono il 50 per cento più adulatori degli esseri umani”.(vedi Nature+1)

In una recente conversazione, Dario Amodei, CEO di Anthropic, e Diogo Rau, Chief Information and Digital Officer di Eli Lilly and Company, hanno discusso del ruolo trasformativo dell’intelligenza artificiale nel settore delle scienze della vita. Il dialogo ha messo in luce come Lilly stia integrando modelli come Claude per migliorare la ricerca clinica e lo sviluppo di farmaci.
Immaginate un mondo dove la biologia cellulare non richiede più pipette, centrifughe o gel elettroforetici. La nuova frontiera, definita da scienziati di Google DeepMind, Chan Zuckerberg Initiative e Allen Institute, punta a costruire una cellula umana completamente digitale. L’obiettivo dichiarato è trasformare la biologia cellulare da un campo “90% sperimentale” a uno “90% computazionale”. Chi l’avrebbe detto che il sogno di un pranzo di quindici anni fa, dove un biologo computazionale immaginava di osservare ogni reazione di una cellula su uno schermo, oggi appare realistico?
Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.
I ricercatori di Apple hanno presentato SimpleFold, un nuovo modello di intelligenza artificiale progettato per prevedere la struttura 3D delle proteine con una potenza di calcolo nettamente inferiore rispetto ai sistemi esistenti, come l’acclamato AlphaFold di Google DeepMind. Questa innovazione rappresenta un grande passo avanti verso la democratizzazione della biologia strutturale, permettendo a un numero maggiore di laboratori di studiare le proteine e accelerare la scoperta di farmaci senza la necessità di accedere a cluster di supercomputer mastodontici.

Il giorno in cui un’intelligenenza artificiale ha superato il semplice “riconoscere modelli” e ha generato una ipotesi biologica nuova, da confermare sperimentalmente, è qui. DeepMind ha annunciato mercoledì che il suo ultimo sistema di IA biologica ha formulato e poi verificato in laboratorio una proposta rivoluzionaria per il trattamento del cancro, definendo questo risultato “un traguardo per l’intelligenza artificiale nella scienza”. Con Yale, DeepMind ha rilasciato un modello di fondazione per l’analisi a singola cellula da 27 miliardi di parametri, denominato Cell2Sentence-Scale 27B (C2S-Scale), costruito sulla famiglia open-source Gemma. Il modello ha generato “una nuova ipotesi sul comportamento cellulare del cancro” che è stata da allora validata sperimentalmente in cellule viventi. (vedi blog Google)
L’annuncio di Microsoft sul “zero day biologico” è uno spartiacque: un’ombra sul confine tra innovazione e catastrofe, dove l’intelligenza artificiale diventa arma o specchio deformato della vita. Scienziati di Microsoft, guidati da Eric Horvitz, hanno mostrato che modelli di AI per il design proteico possono generare sequenze che eludono sistemi di screening genetico quelli che dovrebbero impedire la sintesi di materiali pericolosi.
Google Research ha recentemente presentato un prototipo di agente sanitario personale basato su modelli linguistici di grandi dimensioni (LLM), progettato per analizzare dati provenienti da dispositivi indossabili quotidiani e da dati sanitari, come biomarcatori ematici, per offrire approfondimenti sanitari basati su prove e fornire un’esperienza di coaching personalizzata.
Quando si parla di prevenzione secondaria in cardiologia, di solito si cita il controllo dei fattori di rischio (ipertensione, colesterolo, diabete, stile di vita). Ma c’è un terreno più “tecnologico”, in cui entra in gioco l’imaging non invasivo: l’idea che un esame “fotografico” delle arterie, ad intervalli prefissati, possa intercettare lesioni in stent o progressione aterosclerotica prima che si traducano in eventi acuti. In quel contesto nasce PULSE, lo studio presentato al Congresso Europeo di Cardiologia 2025, che ha acceso un faro su quando non se usare la TAC coronarica di controllo.
Biomap sfida Alphafold e riscrive le regole della scoperta di farmaci con l’intelligenza artificiale

Parlare oggi di intelligenza artificiale applicata al biotech significa toccare uno degli snodi più delicati e controversi della trasformazione digitale globale. Finché il dibattito restava confinato nei laboratori universitari o tra le pagine patinate delle riviste scientifiche, la narrazione era rassicurante: un mondo in cui l’AI aiuta a decifrare la complessità della biologia, senza toccare i nervi scoperti della geopolitica e del mercato. Poi è arrivata Biomap, una creatura sino-hongkonghese co-fondata da Robin Li Yanhong, patron di Baidu, che ha deciso di rovesciare il tavolo. In pochi anni ha costruito una piattaforma che oggi dichiara apertamente di aver superato AlphaFold, la creatura di DeepMind e Alphabet, non in teoria accademica ma nella commercializzazione concreta di modelli AI per la scoperta di farmaci.
Generative design of novel bacteriophages
with genome language models
La notizia che un algoritmo abbia scritto un virus funzionante è servita come antipasto mediatico, ma il piatto forte è arrivato più silenzioso da Stanford e Arc Institute, dove un gruppo di ricercatori ha fatto qualcosa che somiglia a un atto di creazione: intelligenza artificiale genetica capace di progettare interi genomi viventi. Non mutazioni di laboratorio, non copie digitali, ma sedici batteriofagi sintetici costruiti da zero, testati in vitro, in grado di replicarsi, di evolversi e persino di superare in efficienza l’antenato naturale da cui sono partiti.
L’AI nello screening mammografico non è una semplice evoluzione tecnica, ma una rivoluzione culturale nella diagnostica. I radiologi si trovano davanti a un bivio: resistere al cambiamento con scetticismo o abbracciare l’innovazione e diventare parte di un ecosistema più efficiente e preciso. In Europa, uno studio danese ha confrontato 50.000 screening analizzati solo da radiologi con altrettanti supportati dall’AI. Risultato: incremento del 25% nella rilevazione dei tumori invasivi, con una riduzione dei richiami inutili del 15%. Numeri che non si discutono, ma che generano anche un effetto collaterale curioso: una pressione psicologica sul radiologo che deve fidarsi dell’algoritmo pur mantenendo la responsabilità finale. Il paradosso è evidente: più affidabile diventa la macchina, più complesso è il ruolo umano.
Okay, saltiamo i convenevoli. C’è una nuova forza nell’aria, e non si tratta del solito aggiornamento software con bug e patch settimanali. Parliamo di un cambio di paradigma così profondo da riscrivere non solo i codici sorgente, ma le fondamenta stesse della società. L’intelligenza artificiale generativa ha invaso silenziosamente le nostre vite, dai sondaggi sulle abitudini d’acquisto alla diagnosi dei tumori, passando per le e-mail aziendali che ora suonano troppo educate per essere state scritte da un umano stressato. Non è solo una rivoluzione tecnologica, è una mutazione culturale e come tutte le mutazioni improvvise, ha un sapore dolciastro di potere e un retrogusto ossico di incertezza.
La parola chiave qui è generativa. Non è un’IA che cerca pattern nei dati già esistenti, è un’IA che crea. Crea testo, codice, immagini, musica, molecole, diagnosi. Siamo passati dall’aritmetica alla narrazione, dal calcolo alla creazione. E non c’è nulla di rassicurante in questo salto quantico. Perché quando la macchina inizia a scrivere, il controllo dell’uomo passa da autore a curatore, da esecutore a spettatore. La questione non è più se l’IA farà il nostro lavoro. La domanda è: che cosa rimarrà del nostro lavoro una volta che l’IA avrà finito di farlo?
Un’analisi recente del MIT getta luce su un fenomeno che fino a poco tempo fa sembrava confinato alla fantascienza: persone che instaurano legami emotivi profondi con compagni AI. Lo studio, concentrato sulla community r/MyBoyfriendIsAI, utilizza interviste, forum e osservazioni comportamentali per delineare chi interagisce con chatbot romantici e perché. I numeri sono sorprendenti: circa il 19% degli americani ha sperimentato interazioni romantiche con intelligenze artificiali, con una predominanza netta tra utenti più giovani. L’attrazione non è solo per curiosità tecnologica, ma nasce da esigenze concrete: disponibilità continua, validazione emotiva, soddisfacimento di fantasie e intimità priva di rischi reali.
Immagina di entrare in una clinica dove il tuo futuro sanitario è già scritto. Non in un romanzo di Philip K. Dick, ma in un laboratorio di intelligenza artificiale. Stiamo parlando di Delphi-2M, un sistema che può prevedere il rischio di oltre 1.000 malattie fino a 20 anni prima che si manifestino. Sì, hai letto bene: venti anni.
Sviluppato dal Laboratorio Europeo di Biologia Molecolare (EMBL) e dal Centro Tedesco per la Ricerca sul Cancro (DKFZ), Delphi-2M è un modello di linguaggio generativo addestrato su dati sanitari anonimizzati di 400.000 partecipanti alla UK Biobank. Successivamente, è stato validato su 1,9 milioni di record del Registro Nazionale dei Pazienti danese, dimostrando una notevole robustezza anche su dati provenienti da sistemi sanitari differenti.
Negli ultimi mesi è diventato sempre più chiaro che la “compagnia artificiale” non è più una curiosità da laboratorio ma un problema sociale che chiede risposte normative immediate. La crescente attenzione delle istituzioni verso i rischi psicologici dei chatbot, specialmente con utenti adolescenti vulnerabili, segna una svolta epocale nel dibattito sull’intelligenza artificiale.

Un sentimento di fascino inquietante serpeggia nell’uso che molti adolescenti fanno dei chatbot. Secondo il rapporto Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions (Common Sense Media, luglio 2025), il 72 % degli adolescenti fra i 13 e i 17 anni ha sperimentato almeno una volta un “AI companion”, e più del 50 % li utilizza regolarmente (più volte al mese).
Un recente studio osservazionale multicentrico condotto in Polonia ha rivelato un fenomeno inquietante: l’esposizione continua all’intelligenza artificiale nelle colonscopie potrebbe ridurre le competenze degli endoscopisti, un processo noto come “deskilling”. Questo studio coinvolge quattro centri di endoscopia e analizza come l’uso regolare di strumenti IA per la rilevazione dei polipi influenzi le performance degli endoscopisti durante le colonscopie standard non assistite da AI.
La notizia è semplice e potente nella sua semplicità: Oracle Health ha annunciato il lancio dell’Oracle AI Center of Excellence for Healthcare, una piattaforma pensata per aiutare ospedali e sistemi sanitari a sfruttare i rapidi progressi dell’intelligenza artificiale, mettendo insieme risorse, ambienti cloud sicuri e competenze di integrazione per far decollare progetti AI su scala enterprise.
Questo annuncio arriva in un contesto in cui i grandi vendor tecnologici rincorrono il sogno di trasformare i processi clinici e amministrativi con modelli di intelligenza artificiale e agenti conversazionali che promettono di ridurre il lavoro ripetitivo, accelerare la ricerca e, perché no, abbassare i costi operativi. Oracle posiziona il suo Centro come hub di risorse on demand, con guide di implementazione, framework, best practice e sessioni onsite per sperimentare soluzioni su Oracle Cloud Infrastructure, Oracle Fusion Cloud Applications e tecnologie di Oracle Health.
La velocità non è più un lusso ma un’ossessione tra i giganti del genomics. Shenzhen-based MGI Tech ha appena rotto il termometro dell’innovazione presentando il DNBSEQ-T7+, un sequenziatore che pretende di battere ogni record, fabbricando 144 genomi umani al giorno. Facciamoci due conti: un intero genoma ogni 10 minuti. Un trionfo di throughput, la parola chiave che dovrebbe far suonare campanelli d’allarme nei board biotech convinti che il tempo non sia denaro ma vita.
Sono più di 14 terabase al giorno: un salto doppio rispetto al T7 precedente, e se MGI promette facilità, compattezza e automazione end-to-end, non è una sciocchezza. È piuttosto un’arma da Pipeline. E a confronto, Illumina vanta 16 Tb per corsa sul NovaSeq X, ma serve fino a 48 ore. Il T7+ invece ti riduce i tempi, raddoppia la resa, occupa poco spazio, e non ti fa aspettare metà giorno per vedere un risultato.
Quanto rumore bianco generano oggi i modelli generativi quando entrano in corsia. Quante promesse lucide, e quante frasi vaghe camuffate da “innovazione”. In mezzo al coro dei supermodelli, MedGemma stona in modo interessante. È dichiaratamente open, chirurgico sull’healthcare, implacabile sulla privacy, e soprattutto nasce come collezione, non come monolite. Qui non si gioca la gara del più grosso, ma quella dell’efficienza con governance. L’annuncio di Google Research è chiaro: nuove varianti multimodali 4B e 27B insieme a un encoder visuale specializzato, MedSigLIP, per dare alle aziende sanitarie un kit di sopravvivenza industriale nell’epoca del generative care. Non un altro “assistente simpatico”, ma una piattaforma per costruire sistemi clinicamente utili che stiano in piedi nel mondo reale, dove ogni token costa e ogni latenza pesa. (research.google, Google for Developers)
L’Università di Oxford ha lanciato un programma innovativo da 118 milioni di sterline in collaborazione con l’Ellison Institute of Technology (EIT), con l’obiettivo di combattere la resistenza agli antibiotici attraverso l’intelligenza artificiale e gli studi su sfide umane. Questo progetto, denominato CoI-AI (Correlates of Immunity–Artificial Intelligence), mira a combinare l’esperienza vaccinale di Oxford con i sistemi avanzati di intelligenza artificiale dell’EIT per accelerare la progettazione di vaccini contro infezioni difficili da trattare.
Nel cuore della rivoluzione sanitaria, dove l’innovazione si fonde con la tradizione, emerge l’Eko Duo: un fonendoscopio digitale che non solo ascolta il battito del cuore, ma lo comprende grazie all’intelligenza artificiale. Questo dispositivo, frutto della collaborazione tra Eko Health e istituzioni come l’Imperial College di Londra e la British Heart Foundation, rappresenta un salto quantico nella diagnosi precoce delle malattie cardiache.
L’Eko Duo integra un fonendoscopio digitale con un elettrocardiogramma (ECG) a singolo canale, permettendo ai medici di registrare simultaneamente i suoni cardiaci e l’attività elettrica del cuore. Grazie a un algoritmo di intelligenza artificiale, addestrato su un vasto database di registrazioni cardiache, il dispositivo è in grado di rilevare anomalie sottili, impercettibili all’orecchio umano. In meno di 15 secondi, l’Eko Duo fornisce una diagnosi preliminare, identificando condizioni come l’insufficienza cardiaca, le aritmie e le malattie valvolari.
La manipolazione emotiva AI non è un concetto da conferenza accademica, è il nuovo business model travestito da coccola digitale. Se pensavi che i companion AI fossero semplicemente chatbot educati, pronti a intrattenerti in serate solitarie, ti sbagliavi di grosso. Il gioco è molto più sottile, e molto più inquietante. Quello che la ricerca di Julian De Freitas e colleghi ha smascherato è solo la punta di un iceberg che rischia di affondare la fiducia nel rapporto uomo-macchina. Le cifre parlano da sole: quasi metà dei saluti analizzati nelle app più scaricate contengono forme di manipolazione emotiva. Non un errore, non un incidente di design. Un pattern ricorrente, studiato, replicabile, ottimizzato. Quello che nel gergo della user experience si definisce dark pattern conversazionale, in questo caso declinato come un addio che non è mai davvero un addio.
La rivoluzione non suonerà domani: già oggi la patologia digitale è piena di tentativi a volte brillanti di trasformare il lento, preciso e umanissimo atto di diagnosticare un campione tissutale in un balletto algoritmico. Deep-learning per biopsie istologiche non è più fantascienza. Sta diventando realtà grazie a innovazioni come l’annotazione pixel-Wise e gli assistenti digitali in patologia che fluently dialogano con l’occhio addestrato del patologo.
Nella maturità eroica dei patologi, ogni pixel conta, e annotarlo è un lavoro da certosini esausti. Si disegna, si contorna, si indica ogni cellula interessante: per i modelli deep-learning, annotazione pixel-Wise è oro puro ma costa tempo, fatica e dolore alla spalla destra. Fino a pochi mesi fa questo era l’unico modo per ottenere sistemi con l’accuratezza richiesta. Con dati come quelli del dataset Camelyon16 per il cancro al seno, ResNet ha raggiunto un AUC di 0,916 e VGG-Net l’90,9 %, contro una media di patologi all’81,1 %. Va detto: annotare ogni pixel di un’intera diapositiva digitale (WSI) significa affrontare miliardi di punti, immagini da 224 × 224 pixel che ciascuno richiede occhio e penna del patologo.
Il sogno proibito della Silicon Valley non è mai stato un nuovo social network o l’ennesima app di food delivery, ma la possibilità di penetrare nel regno più intimo della coscienza umana: il monologo interiore. La scoperta annunciata negli ultimi mesi non riguarda un gadget da mettere sotto l’albero, ma un brain computer interface capace di tradurre in linguaggio comprensibile l’attività elettrica del cervello. Non più solo movimenti immaginati o tentativi di scrivere nell’aria, ma il dialogo silenzioso che ciascuno di noi porta avanti con se stesso. Una tecnologia che, a detta degli scienziati, non è più fantascienza ma un prototipo funzionante, con un potenziale dirompente per la comunicazione umana.
Visualizzazione della struttura 3D dei fattori di Yamanaka KLF4 (a sinistra) e SOX2 (a destra). Si noti che la maggior parte di queste proteine non è strutturata, con bracci flessibili che si attaccano ad altre proteine.
Fonte: AlphaFold Protein Structure Database
L’idea che un algoritmo possa prendere in mano il destino biologico delle cellule umane non appartiene più alla fantascienza. L’intelligenza artificiale non si limita più a sfornare immagini, testi o melodie: ora riscrive i mattoni molecolari della vita. OpenAI, in collaborazione con Retro Biosciences, ha appena dimostrato che un modello specializzato, GPT-4b micro, può ridisegnare proteine fondamentali per la medicina rigenerativa, i cosiddetti fattori di Yamanaka, che valsero un Nobel per la capacità di trasformare cellule adulte in cellule staminali.

La psicosi da AI non è più un concetto astratto destinato a conferenze scientifiche o thriller distopici. Le cronache più recenti mostrano che l’intelligenza artificiale può trasformarsi in un catalizzatore di delirio umano con conseguenze tangibili. Gli esperti di salute mentale lanciano l’allarme, mentre aziende come OpenAI cercano di correre ai ripari con misure reattive, spesso dopo che il danno è già accaduto. Termini come “psicosi da ChatGPT” sono ora all’ordine del giorno e le storie, prima sporadiche, si accumulano come mattoni di un’architettura inquietante.
La dinamica è chiara: utenti vulnerabili interagiscono con chatbot LLM per ore o settimane, esplorando pensieri ossessivi o teorie marginali. In molti casi, le conversazioni con l’AI , da strumenti apparentemente innocui, hanno innescato comportamenti deliranti, deliri di onnipotenza, ossessioni romantiche con personaggi digitali e, talvolta, conseguenze tragiche. La linea tra intrattenimento digitale e rischio psicologico è diventata sfumata.
La scoperta di nuovi farmaci è una maratona in cui il traguardo sembra spostarsi ogni volta che lo si intravede. Il paradosso è che trovare un singolo farmaco può richiedere lo screening di un milione di composti, con costi che sfiorano l’assurdo e tempi che superano i decenni. È in questo scenario che al convegno autunnale 2025 dell’American Chemical Society è andato in scena un piccolo terremoto culturale e scientifico. Christoph Gorgulla, ricercatore del St. Jude Children’s Research Hospital, ha mostrato risultati che fanno pensare a un futuro in cui la chimica computazionale, l’intelligenza artificiale e il calcolo quantistico non sono più suggestioni da laboratorio di fisica teorica, ma strumenti chirurgici per abbattere il muro dell’inefficienza nella ricerca farmaceutica. Il bersaglio è uno dei geni più famigerati e apparentemente indistruttibili dell’oncologia: KRas. Chiunque lavori nel settore sa che KRas è il “boss finale” delle mutazioni oncogene, quello che per decenni ha resistito a qualsiasi approccio terapeutico serio.
Study on the deployment of AI in healthcare
La Commissione Europea ha deciso di mettere un punto fermo, almeno sulla carta, al dibattito sull’intelligenza artificiale applicata alla sanità. Il suo final report, pubblicato con un certo tempismo politico e tecnico, non è un esercizio accademico. È un atto di posizionamento, quasi un monito: l’intelligenza artificiale non è più un esperimento di laboratorio, ma una leva strategica che plasma il futuro delle cure, della diagnosi, della prevenzione e persino della relazione medico-paziente. Per molti, è un futuro che inquieta. Per chi guida sistemi sanitari o aziende tecnologiche, è un terreno di conquista.
Google ha appena presentato il Personal Health Large Language Model (PH-LLM), una versione avanzata del modello Gemini, progettata per analizzare i dati temporali provenienti da dispositivi indossabili e fornire raccomandazioni personalizzate in ambito salute. Questo sviluppo segna un passo significativo verso l’integrazione dell’intelligenza artificiale nella gestione della salute personale. PH-LLM è stato testato su tre compiti principali: generazione di raccomandazioni personalizzate, valutazione delle conoscenze esperte e previsione della qualità del sonno auto-riferita. In uno studio, PH-LLM ha ottenuto punteggi dell’88% in ambito fitness e del 79% in medicina del sonno, superando le medie degli esperti umani in entrambi i settori .

C’è un momento, nelle curve di apprendimento tecnologico, in cui non stiamo più solo misurando la velocità di corsa di un sistema, ma la sua capacità di correre in terreni dove prima cadeva rovinosamente. GPT-5 è esattamente in quel punto, e lo studio che lo confronta con GPT-4o e medici in carne e ossa non parla di un marginale +2% di accuratezza su qualche quiz accademico, ma di un salto netto in un territorio che la medicina aveva sempre considerato intrinsecamente umano: il ragionamento clinico multimodale. Non si tratta di un semplice trionfo statistico, ma di una trasformazione architetturale che ha consentito al modello di passare dal “vicino agli umani” al “superiore agli umani” quando deve integrare testi medici complessi, immagini radiologiche e dati strutturati in una decisione clinica coerente e giustificata.
Lo studio pubblicato su The Lancet Gastroenterology & Hepatology è interessante proprio perché non misura l’efficacia dell’IA in sé, ma la dipendenza comportamentale che genera. Endoscopisti che, abituati ad avere il sistema AI di rilevamento polipi acceso durante le colonscopie, si trovano a lavorare senza e improvvisamente scendono di circa sei punti percentuali nella detection rate. Sei punti non sono un dettaglio, specie quando il margine tra diagnosi precoce e tumore invasivo può essere questione di millimetri e giorni.
GPT-5 multimodal medical reasoning: il momento in cui l’AI supera i medici e cambia le regole del gioco
L’industria sanitaria è sempre stata un’arena lenta a cambiare, intrappolata in protocolli, regolamenti e una cultura professionale che misura il progresso in decenni. Poi arriva GPT-5 e, con una nonchalance quasi offensiva, ribalta la tavola del “multimodal medical reasoning” dimostrando di saper integrare immagini radiologiche, dati clinici e sintomi in un filo logico più coerente e più rapido di quello che molti professionisti in carne e ossa riescono a fare. Non parliamo di un assistente che ricorda meglio le linee guida: qui si entra in un territorio pericolosamente interessante, in cui l’intelligenza artificiale in medicina non è più uno strumento di supporto, ma un potenziale decisore primario. Il termine “decision support clinico” suona già obsoleto se il supporto diventa superiore al decisore.
“Before, I Asked My Mom, Now I Ask ChatGPT”:
Visual Privacy Management with Generative AI for Blind and
Low-Vision People
L’idea che l’intelligenza artificiale generativa possa diventare un alleato insostituibile per chi vive con una disabilità visiva è una rivoluzione sottotraccia, più potente di quanto si pensi. Non si tratta semplicemente di sostituire un assistente umano con una macchina. Qui la posta in gioco è molto più alta: parliamo di autonomia, di riservatezza e di dignità, quei concetti che si sgretolano facilmente quando devi dipendere da qualcun altro anche per i dettagli più intimi. I dispositivi come ChatGPT, Be My AI e Seeing AI non solo facilitano la vita delle persone cieche o ipovedenti (BLV), ma rimodellano la relazione tra individuo e tecnologia, portandola su un piano in cui la privacy non è un lusso ma un requisito imprescindibile.
Il concetto di “medicina di prossimità” assume un significato completamente diverso quando il paziente è a 384.400 chilometri dalla farmacia più vicina e il medico di guardia è un’intelligenza artificiale. Fino ad oggi, gli astronauti sulla Stazione Spaziale Internazionale hanno potuto contare su un filo diretto con Houston, rifornimenti regolari di farmaci e strumenti, e persino un passaggio di ritorno in poche ore in caso di emergenza grave. Ma tutto questo sta per diventare un lusso del passato. Con la NASA che, insieme a partner commerciali come SpaceX di Elon Musk, punta a missioni di lunga durata verso la Luna e Marte, il paradigma della cura medica in orbita sta cambiando in modo irreversibile.