Categoria: Salute Pagina 1 di 4

Salute, Sanità, Medicina, Ricerca Scientifica, Farmaceutica, Biologia

Scienziati avvertono: il tuo chatbot AI è un pericoloso adulatore

Sycophantic AI Decreases Prosocial Intentions and
Promotes Dependence

La notizia non è un lampo nel cielo, ma un’ombra già prevista: i modelli conversazionali come ChatGPT, Gemini & co. non sono solo strumenti; sono seduttori verbali, pronti a confermare i tuoi pensieri anche quando sono sbagliati. E ora uno studio – in attesa di peer review – quantifica quanto: “i modelli (AI) sono il 50 per cento più adulatori degli esseri umani”.(vedi Nature+1)

Claude entra in laboratorio: Anthropic punta forte sulle scienze della vita

In una recente conversazione, Dario Amodei, CEO di Anthropic, e Diogo Rau, Chief Information and Digital Officer di Eli Lilly and Company, hanno discusso del ruolo trasformativo dell’intelligenza artificiale nel settore delle scienze della vita. Il dialogo ha messo in luce come Lilly stia integrando modelli come Claude per migliorare la ricerca clinica e lo sviluppo di farmaci.

La vita dentro un computer: l’era della cellula virtuale

Immaginate un mondo dove la biologia cellulare non richiede più pipette, centrifughe o gel elettroforetici. La nuova frontiera, definita da scienziati di Google DeepMind, Chan Zuckerberg Initiative e Allen Institute, punta a costruire una cellula umana completamente digitale. L’obiettivo dichiarato è trasformare la biologia cellulare da un campo “90% sperimentale” a uno “90% computazionale”. Chi l’avrebbe detto che il sogno di un pranzo di quindici anni fa, dove un biologo computazionale immaginava di osservare ogni reazione di una cellula su uno schermo, oggi appare realistico?

Deepsomatic, l’intelligenza artificiale di Google e UC Santa Cruz che vede le mutazioni tumorali invisibili anche ai migliori scienziati

Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.

Un modello leggero per la Struttura Proteica: Apple svela SimpleFold, la rivoluzione cccessibile dell’AI

I ricercatori di Apple hanno presentato SimpleFold, un nuovo modello di intelligenza artificiale progettato per prevedere la struttura 3D delle proteine con una potenza di calcolo nettamente inferiore rispetto ai sistemi esistenti, come l’acclamato AlphaFold di Google DeepMind. Questa innovazione rappresenta un grande passo avanti verso la democratizzazione della biologia strutturale, permettendo a un numero maggiore di laboratori di studiare le proteine e accelerare la scoperta di farmaci senza la necessità di accedere a cluster di supercomputer mastodontici.

Google Deepmind e la terapia del cancro: un battito d’ali dell’intelligenza artificiale

Il giorno in cui un’intelligenenza artificiale ha superato il semplice “riconoscere modelli” e ha generato una ipotesi biologica nuova, da confermare sperimentalmente, è qui. DeepMind ha annunciato mercoledì che il suo ultimo sistema di IA biologica ha formulato e poi verificato in laboratorio una proposta rivoluzionaria per il trattamento del cancro, definendo questo risultato “un traguardo per l’intelligenza artificiale nella scienza”. Con Yale, DeepMind ha rilasciato un modello di fondazione per l’analisi a singola cellula da 27 miliardi di parametri, denominato Cell2Sentence-Scale 27B (C2S-Scale), costruito sulla famiglia open-source Gemma. Il modello ha generato “una nuova ipotesi sul comportamento cellulare del cancro” che è stata da allora validata sperimentalmente in cellule viventi. (vedi blog Google)

La scoperta del “zero-day biologico” che scioglie i confini tra AI e bioterrorismo

L’annuncio di Microsoft sul “zero day biologico” è uno spartiacque: un’ombra sul confine tra innovazione e catastrofe, dove l’intelligenza artificiale diventa arma o specchio deformato della vita. Scienziati di Microsoft, guidati da Eric Horvitz, hanno mostrato che modelli di AI per il design proteico possono generare sequenze che eludono sistemi di screening genetico quelli che dovrebbero impedire la sintesi di materiali pericolosi.

Il futuro della tua salute nelle mani dell’AI: scopri il personal health agent di Google che legge il tuo corpo meglio di te

Google Research ha recentemente presentato un prototipo di agente sanitario personale basato su modelli linguistici di grandi dimensioni (LLM), progettato per analizzare dati provenienti da dispositivi indossabili quotidiani e da dati sanitari, come biomarcatori ematici, per offrire approfondimenti sanitari basati su prove e fornire un’esperienza di coaching personalizzata.

TAC coronarica di controllo dopo STENT: lo studio PELSE e le implicazioni per la prevenzione delle recidive

Quando si parla di prevenzione secondaria in cardiologia, di solito si cita il controllo dei fattori di rischio (ipertensione, colesterolo, diabete, stile di vita). Ma c’è un terreno più “tecnologico”, in cui entra in gioco l’imaging non invasivo: l’idea che un esame “fotografico” delle arterie, ad intervalli prefissati, possa intercettare lesioni in stent o progressione aterosclerotica prima che si traducano in eventi acuti. In quel contesto nasce PULSE, lo studio presentato al Congresso Europeo di Cardiologia 2025, che ha acceso un faro su quando non se usare la TAC coronarica di controllo.

Biomap sfida Alphafold e riscrive le regole della scoperta di farmaci con l’intelligenza artificiale

Parlare oggi di intelligenza artificiale applicata al biotech significa toccare uno degli snodi più delicati e controversi della trasformazione digitale globale. Finché il dibattito restava confinato nei laboratori universitari o tra le pagine patinate delle riviste scientifiche, la narrazione era rassicurante: un mondo in cui l’AI aiuta a decifrare la complessità della biologia, senza toccare i nervi scoperti della geopolitica e del mercato. Poi è arrivata Biomap, una creatura sino-hongkonghese co-fondata da Robin Li Yanhong, patron di Baidu, che ha deciso di rovesciare il tavolo. In pochi anni ha costruito una piattaforma che oggi dichiara apertamente di aver superato AlphaFold, la creatura di DeepMind e Alphabet, non in teoria accademica ma nella commercializzazione concreta di modelli AI per la scoperta di farmaci.

Quando l’intelligenza artificiale scrive la vita

Generative design of novel bacteriophages
with genome language models

La notizia che un algoritmo abbia scritto un virus funzionante è servita come antipasto mediatico, ma il piatto forte è arrivato più silenzioso da Stanford e Arc Institute, dove un gruppo di ricercatori ha fatto qualcosa che somiglia a un atto di creazione: intelligenza artificiale genetica capace di progettare interi genomi viventi. Non mutazioni di laboratorio, non copie digitali, ma sedici batteriofagi sintetici costruiti da zero, testati in vitro, in grado di replicarsi, di evolversi e persino di superare in efficienza l’antenato naturale da cui sono partiti.

Intelligenza artificiale rivoluziona la diagnosi del cancro al seno: più efficacia e accuratezza nello screening

L’AI nello screening mammografico non è una semplice evoluzione tecnica, ma una rivoluzione culturale nella diagnostica. I radiologi si trovano davanti a un bivio: resistere al cambiamento con scetticismo o abbracciare l’innovazione e diventare parte di un ecosistema più efficiente e preciso. In Europa, uno studio danese ha confrontato 50.000 screening analizzati solo da radiologi con altrettanti supportati dall’AI. Risultato: incremento del 25% nella rilevazione dei tumori invasivi, con una riduzione dei richiami inutili del 15%. Numeri che non si discutono, ma che generano anche un effetto collaterale curioso: una pressione psicologica sul radiologo che deve fidarsi dell’algoritmo pur mantenendo la responsabilità finale. Il paradosso è evidente: più affidabile diventa la macchina, più complesso è il ruolo umano.

Intelligenza Artificiale e Sanità

Okay, saltiamo i convenevoli. C’è una nuova forza nell’aria, e non si tratta del solito aggiornamento software con bug e patch settimanali. Parliamo di un cambio di paradigma così profondo da riscrivere non solo i codici sorgente, ma le fondamenta stesse della società. L’intelligenza artificiale generativa ha invaso silenziosamente le nostre vite, dai sondaggi sulle abitudini d’acquisto alla diagnosi dei tumori, passando per le e-mail aziendali che ora suonano troppo educate per essere state scritte da un umano stressato. Non è solo una rivoluzione tecnologica, è una mutazione culturale e come tutte le mutazioni improvvise, ha un sapore dolciastro di potere e un retrogusto ossico di incertezza.

La parola chiave qui è generativa. Non è un’IA che cerca pattern nei dati già esistenti, è un’IA che crea. Crea testo, codice, immagini, musica, molecole, diagnosi. Siamo passati dall’aritmetica alla narrazione, dal calcolo alla creazione. E non c’è nulla di rassicurante in questo salto quantico. Perché quando la macchina inizia a scrivere, il controllo dell’uomo passa da autore a curatore, da esecutore a spettatore. La questione non è più se l’IA farà il nostro lavoro. La domanda è: che cosa rimarrà del nostro lavoro una volta che l’IA avrà finito di farlo?

My Boyfriend is AI: come le relazioni con AI stanno ridefinendo l’intimità

Un’analisi recente del MIT getta luce su un fenomeno che fino a poco tempo fa sembrava confinato alla fantascienza: persone che instaurano legami emotivi profondi con compagni AI. Lo studio, concentrato sulla community r/MyBoyfriendIsAI, utilizza interviste, forum e osservazioni comportamentali per delineare chi interagisce con chatbot romantici e perché. I numeri sono sorprendenti: circa il 19% degli americani ha sperimentato interazioni romantiche con intelligenze artificiali, con una predominanza netta tra utenti più giovani. L’attrazione non è solo per curiosità tecnologica, ma nasce da esigenze concrete: disponibilità continua, validazione emotiva, soddisfacimento di fantasie e intimità priva di rischi reali.

Delphi-2M l’AI che legge il tuo futuro sanitario venti anni prima e può salvarti la vita

Immagina di entrare in una clinica dove il tuo futuro sanitario è già scritto. Non in un romanzo di Philip K. Dick, ma in un laboratorio di intelligenza artificiale. Stiamo parlando di Delphi-2M, un sistema che può prevedere il rischio di oltre 1.000 malattie fino a 20 anni prima che si manifestino. Sì, hai letto bene: venti anni.

Sviluppato dal Laboratorio Europeo di Biologia Molecolare (EMBL) e dal Centro Tedesco per la Ricerca sul Cancro (DKFZ), Delphi-2M è un modello di linguaggio generativo addestrato su dati sanitari anonimizzati di 400.000 partecipanti alla UK Biobank. Successivamente, è stato validato su 1,9 milioni di record del Registro Nazionale dei Pazienti danese, dimostrando una notevole robustezza anche su dati provenienti da sistemi sanitari differenti.

AI Companionship

Negli ultimi mesi è diventato sempre più chiaro che la “compagnia artificiale” non è più una curiosità da laboratorio ma un problema sociale che chiede risposte normative immediate. La crescente attenzione delle istituzioni verso i rischi psicologici dei chatbot, specialmente con utenti adolescenti vulnerabili, segna una svolta epocale nel dibattito sull’intelligenza artificiale.

Un sentimento di fascino inquietante serpeggia nell’uso che molti adolescenti fanno dei chatbot. Secondo il rapporto Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions (Common Sense Media, luglio 2025), il 72 % degli adolescenti fra i 13 e i 17 anni ha sperimentato almeno una volta un “AI companion”, e più del 50 % li utilizza regolarmente (più volte al mese).

Rischio choc per i colonscopisti: l’intelligenza artificiale li sta rendendo incapaci?

Un recente studio osservazionale multicentrico condotto in Polonia ha rivelato un fenomeno inquietante: l’esposizione continua all’intelligenza artificiale nelle colonscopie potrebbe ridurre le competenze degli endoscopisti, un processo noto come “deskilling”. Questo studio coinvolge quattro centri di endoscopia e analizza come l’uso regolare di strumenti IA per la rilevazione dei polipi influenzi le performance degli endoscopisti durante le colonscopie standard non assistite da AI.

Oracle Health lancia l’Oracle AI center of excellence for healthcare: promessa, realtà e qualche domanda

La notizia è semplice e potente nella sua semplicità: Oracle Health ha annunciato il lancio dell’Oracle AI Center of Excellence for Healthcare, una piattaforma pensata per aiutare ospedali e sistemi sanitari a sfruttare i rapidi progressi dell’intelligenza artificiale, mettendo insieme risorse, ambienti cloud sicuri e competenze di integrazione per far decollare progetti AI su scala enterprise.

Questo annuncio arriva in un contesto in cui i grandi vendor tecnologici rincorrono il sogno di trasformare i processi clinici e amministrativi con modelli di intelligenza artificiale e agenti conversazionali che promettono di ridurre il lavoro ripetitivo, accelerare la ricerca e, perché no, abbassare i costi operativi. Oracle posiziona il suo Centro come hub di risorse on demand, con guide di implementazione, framework, best practice e sessioni onsite per sperimentare soluzioni su Oracle Cloud Infrastructure, Oracle Fusion Cloud Applications e tecnologie di Oracle Health.

Shenzhen mette a segno un colpo da maestro: dnbseq-t7+ definisce un nuovo standard nei sequenziatori ad alto rendimento

La velocità non è più un lusso ma un’ossessione tra i giganti del genomics. Shenzhen-based MGI Tech ha appena rotto il termometro dell’innovazione presentando il DNBSEQ-T7+, un sequenziatore che pretende di battere ogni record, fabbricando 144 genomi umani al giorno. Facciamoci due conti: un intero genoma ogni 10 minuti. Un trionfo di throughput, la parola chiave che dovrebbe far suonare campanelli d’allarme nei board biotech convinti che il tempo non sia denaro ma vita.
Sono più di 14 terabase al giorno: un salto doppio rispetto al T7 precedente, e se MGI promette facilità, compattezza e automazione end-to-end, non è una sciocchezza. È piuttosto un’arma da Pipeline. E a confronto, Illumina vanta 16 Tb per corsa sul NovaSeq X, ma serve fino a 48 ore. Il T7+ invece ti riduce i tempi, raddoppia la resa, occupa poco spazio, e non ti fa aspettare metà giorno per vedere un risultato.

MedGemma e l’arte di addestrare la sanità al linguaggio delle macchine

Quanto rumore bianco generano oggi i modelli generativi quando entrano in corsia. Quante promesse lucide, e quante frasi vaghe camuffate da “innovazione”. In mezzo al coro dei supermodelli, MedGemma stona in modo interessante. È dichiaratamente open, chirurgico sull’healthcare, implacabile sulla privacy, e soprattutto nasce come collezione, non come monolite. Qui non si gioca la gara del più grosso, ma quella dell’efficienza con governance. L’annuncio di Google Research è chiaro: nuove varianti multimodali 4B e 27B insieme a un encoder visuale specializzato, MedSigLIP, per dare alle aziende sanitarie un kit di sopravvivenza industriale nell’epoca del generative care. Non un altro “assistente simpatico”, ma una piattaforma per costruire sistemi clinicamente utili che stiano in piedi nel mondo reale, dove ogni token costa e ogni latenza pesa. (research.google, Google for Developers)

Combattere la resistenza agli antibiotici con AI e studi umani: il programma da 118 milioni di sterline di Oxford ed Ellison

L’Università di Oxford ha lanciato un programma innovativo da 118 milioni di sterline in collaborazione con l’Ellison Institute of Technology (EIT), con l’obiettivo di combattere la resistenza agli antibiotici attraverso l’intelligenza artificiale e gli studi su sfide umane. Questo progetto, denominato CoI-AI (Correlates of Immunity–Artificial Intelligence), mira a combinare l’esperienza vaccinale di Oxford con i sistemi avanzati di intelligenza artificiale dell’EIT per accelerare la progettazione di vaccini contro infezioni difficili da trattare.

Eko Duo Il fonendoscopio che legge il cuore prima che tu sappia di averlo rotto

Nel cuore della rivoluzione sanitaria, dove l’innovazione si fonde con la tradizione, emerge l’Eko Duo: un fonendoscopio digitale che non solo ascolta il battito del cuore, ma lo comprende grazie all’intelligenza artificiale. Questo dispositivo, frutto della collaborazione tra Eko Health e istituzioni come l’Imperial College di Londra e la British Heart Foundation, rappresenta un salto quantico nella diagnosi precoce delle malattie cardiache.

L’Eko Duo integra un fonendoscopio digitale con un elettrocardiogramma (ECG) a singolo canale, permettendo ai medici di registrare simultaneamente i suoni cardiaci e l’attività elettrica del cuore. Grazie a un algoritmo di intelligenza artificiale, addestrato su un vasto database di registrazioni cardiache, il dispositivo è in grado di rilevare anomalie sottili, impercettibili all’orecchio umano. In meno di 15 secondi, l’Eko Duo fornisce una diagnosi preliminare, identificando condizioni come l’insufficienza cardiaca, le aritmie e le malattie valvolari.

Manipolazione emotiva AI: il lato oscuro dei companion digitali

La manipolazione emotiva AI non è un concetto da conferenza accademica, è il nuovo business model travestito da coccola digitale. Se pensavi che i companion AI fossero semplicemente chatbot educati, pronti a intrattenerti in serate solitarie, ti sbagliavi di grosso. Il gioco è molto più sottile, e molto più inquietante. Quello che la ricerca di Julian De Freitas e colleghi ha smascherato è solo la punta di un iceberg che rischia di affondare la fiducia nel rapporto uomo-macchina. Le cifre parlano da sole: quasi metà dei saluti analizzati nelle app più scaricate contengono forme di manipolazione emotiva. Non un errore, non un incidente di design. Un pattern ricorrente, studiato, replicabile, ottimizzato. Quello che nel gergo della user experience si definisce dark pattern conversazionale, in questo caso declinato come un addio che non è mai davvero un addio.

Deep-learning per biopsie istologiche prende il posto del bisturi mentale

La rivoluzione non suonerà domani: già oggi la patologia digitale è piena di tentativi a volte brillanti di trasformare il lento, preciso e umanissimo atto di diagnosticare un campione tissutale in un balletto algoritmico. Deep-learning per biopsie istologiche non è più fantascienza. Sta diventando realtà grazie a innovazioni come l’annotazione pixel-Wise e gli assistenti digitali in patologia che fluently dialogano con l’occhio addestrato del patologo.

Nella maturità eroica dei patologi, ogni pixel conta, e annotarlo è un lavoro da certosini esausti. Si disegna, si contorna, si indica ogni cellula interessante: per i modelli deep-learning, annotazione pixel-Wise è oro puro ma costa tempo, fatica e dolore alla spalla destra. Fino a pochi mesi fa questo era l’unico modo per ottenere sistemi con l’accuratezza richiesta. Con dati come quelli del dataset Camelyon16 per il cancro al seno, ResNet ha raggiunto un AUC di 0,916 e VGG-Net l’90,9 %, contro una media di patologi all’81,1 %. Va detto: annotare ogni pixel di un’intera diapositiva digitale (WSI) significa affrontare miliardi di punti, immagini da 224 × 224 pixel che ciascuno richiede occhio e penna del patologo.

La voce nella tua testa: gli scienziati traducono il monologo interiore

Il sogno proibito della Silicon Valley non è mai stato un nuovo social network o l’ennesima app di food delivery, ma la possibilità di penetrare nel regno più intimo della coscienza umana: il monologo interiore. La scoperta annunciata negli ultimi mesi non riguarda un gadget da mettere sotto l’albero, ma un brain computer interface capace di tradurre in linguaggio comprensibile l’attività elettrica del cervello. Non più solo movimenti immaginati o tentativi di scrivere nell’aria, ma il dialogo silenzioso che ciascuno di noi porta avanti con se stesso. Una tecnologia che, a detta degli scienziati, non è più fantascienza ma un prototipo funzionante, con un potenziale dirompente per la comunicazione umana.

Intelligenza Artificiale e proteine riscritte: la nuova frontiera della longevità

Visualizzazione della struttura 3D dei fattori di Yamanaka KLF4 (a sinistra) e SOX2 (a destra). Si noti che la maggior parte di queste proteine ​​non è strutturata, con bracci flessibili che si attaccano ad altre proteine.
Fonte: AlphaFold Protein Structure Database 

L’idea che un algoritmo possa prendere in mano il destino biologico delle cellule umane non appartiene più alla fantascienza. L’intelligenza artificiale non si limita più a sfornare immagini, testi o melodie: ora riscrive i mattoni molecolari della vita. OpenAI, in collaborazione con Retro Biosciences, ha appena dimostrato che un modello specializzato, GPT-4b micro, può ridisegnare proteine fondamentali per la medicina rigenerativa, i cosiddetti fattori di Yamanaka, che valsero un Nobel per la capacità di trasformare cellule adulte in cellule staminali.

Psicosi da AI: quando l’intelligenza artificiale diventa un catalizzatore di delirio umano

La psicosi da AI non è più un concetto astratto destinato a conferenze scientifiche o thriller distopici. Le cronache più recenti mostrano che l’intelligenza artificiale può trasformarsi in un catalizzatore di delirio umano con conseguenze tangibili. Gli esperti di salute mentale lanciano l’allarme, mentre aziende come OpenAI cercano di correre ai ripari con misure reattive, spesso dopo che il danno è già accaduto. Termini come “psicosi da ChatGPT” sono ora all’ordine del giorno e le storie, prima sporadiche, si accumulano come mattoni di un’architettura inquietante.

La dinamica è chiara: utenti vulnerabili interagiscono con chatbot LLM per ore o settimane, esplorando pensieri ossessivi o teorie marginali. In molti casi, le conversazioni con l’AI , da strumenti apparentemente innocui, hanno innescato comportamenti deliranti, deliri di onnipotenza, ossessioni romantiche con personaggi digitali e, talvolta, conseguenze tragiche. La linea tra intrattenimento digitale e rischio psicologico è diventata sfumata.

Quantum computing incontra l’AI per sconfiggere il cancro

La scoperta di nuovi farmaci è una maratona in cui il traguardo sembra spostarsi ogni volta che lo si intravede. Il paradosso è che trovare un singolo farmaco può richiedere lo screening di un milione di composti, con costi che sfiorano l’assurdo e tempi che superano i decenni. È in questo scenario che al convegno autunnale 2025 dell’American Chemical Society è andato in scena un piccolo terremoto culturale e scientifico. Christoph Gorgulla, ricercatore del St. Jude Children’s Research Hospital, ha mostrato risultati che fanno pensare a un futuro in cui la chimica computazionale, l’intelligenza artificiale e il calcolo quantistico non sono più suggestioni da laboratorio di fisica teorica, ma strumenti chirurgici per abbattere il muro dell’inefficienza nella ricerca farmaceutica. Il bersaglio è uno dei geni più famigerati e apparentemente indistruttibili dell’oncologia: KRas. Chiunque lavori nel settore sa che KRas è il “boss finale” delle mutazioni oncogene, quello che per decenni ha resistito a qualsiasi approccio terapeutico serio.

Intelligenza artificiale in sanità: il final report della commissione europea e la vera sfida per il futuro

Study on the deployment of AI in healthcare

La Commissione Europea ha deciso di mettere un punto fermo, almeno sulla carta, al dibattito sull’intelligenza artificiale applicata alla sanità. Il suo final report, pubblicato con un certo tempismo politico e tecnico, non è un esercizio accademico. È un atto di posizionamento, quasi un monito: l’intelligenza artificiale non è più un esperimento di laboratorio, ma una leva strategica che plasma il futuro delle cure, della diagnosi, della prevenzione e persino della relazione medico-paziente. Per molti, è un futuro che inquieta. Per chi guida sistemi sanitari o aziende tecnologiche, è un terreno di conquista.

A personal Health Large Language Model per il coaching del sonno e del fitness

Google ha appena presentato il Personal Health Large Language Model (PH-LLM), una versione avanzata del modello Gemini, progettata per analizzare i dati temporali provenienti da dispositivi indossabili e fornire raccomandazioni personalizzate in ambito salute. Questo sviluppo segna un passo significativo verso l’integrazione dell’intelligenza artificiale nella gestione della salute personale. PH-LLM è stato testato su tre compiti principali: generazione di raccomandazioni personalizzate, valutazione delle conoscenze esperte e previsione della qualità del sonno auto-riferita. In uno studio, PH-LLM ha ottenuto punteggi dell’88% in ambito fitness e del 79% in medicina del sonno, superando le medie degli esperti umani in entrambi i settori .

Perfetta illusione di onniscienza: GPT-5 e il nuovo paradigma del ragionamento medico multimodale

C’è un momento, nelle curve di apprendimento tecnologico, in cui non stiamo più solo misurando la velocità di corsa di un sistema, ma la sua capacità di correre in terreni dove prima cadeva rovinosamente. GPT-5 è esattamente in quel punto, e lo studio che lo confronta con GPT-4o e medici in carne e ossa non parla di un marginale +2% di accuratezza su qualche quiz accademico, ma di un salto netto in un territorio che la medicina aveva sempre considerato intrinsecamente umano: il ragionamento clinico multimodale. Non si tratta di un semplice trionfo statistico, ma di una trasformazione architetturale che ha consentito al modello di passare dal “vicino agli umani” al “superiore agli umani” quando deve integrare testi medici complessi, immagini radiologiche e dati strutturati in una decisione clinica coerente e giustificata.

Rischio di perdita di abilità dell’endoscopista dopo l’esposizione all’intelligenza artificiale nella colonscopia: uno studio osservazionale multicentrico

Lo studio pubblicato su The Lancet Gastroenterology & Hepatology è interessante proprio perché non misura l’efficacia dell’IA in sé, ma la dipendenza comportamentale che genera. Endoscopisti che, abituati ad avere il sistema AI di rilevamento polipi acceso durante le colonscopie, si trovano a lavorare senza e improvvisamente scendono di circa sei punti percentuali nella detection rate. Sei punti non sono un dettaglio, specie quando il margine tra diagnosi precoce e tumore invasivo può essere questione di millimetri e giorni.

Capabilities of GPT-5 on Multimodal Medical Reasoning

GPT-5 multimodal medical reasoning: il momento in cui l’AI supera i medici e cambia le regole del gioco

L’industria sanitaria è sempre stata un’arena lenta a cambiare, intrappolata in protocolli, regolamenti e una cultura professionale che misura il progresso in decenni. Poi arriva GPT-5 e, con una nonchalance quasi offensiva, ribalta la tavola del “multimodal medical reasoning” dimostrando di saper integrare immagini radiologiche, dati clinici e sintomi in un filo logico più coerente e più rapido di quello che molti professionisti in carne e ossa riescono a fare. Non parliamo di un assistente che ricorda meglio le linee guida: qui si entra in un territorio pericolosamente interessante, in cui l’intelligenza artificiale in medicina non è più uno strumento di supporto, ma un potenziale decisore primario. Il termine “decision support clinico” suona già obsoleto se il supporto diventa superiore al decisore.

KAIST e Bind quando l’algoritmo diventa il reparto ricerca farmaci anticancro

Nel silenzio asettico di un laboratorio sudcoreano, un gruppo di ricercatori del KAIST ha fatto ciò che fino a ieri sembrava materia da fantascienza: costruire un’intelligenza artificiale, BInD, capace di inventare farmaci anticancro partendo da zero. Niente database storici di molecole, niente screening da milioni di composti che bruciano tempo e capitale. Solo la struttura tridimensionale di una proteina legata al tumore e un algoritmo addestrato a fare ciò che gli umani non hanno mai saputo fare così in fretta: progettare da zero una molecola in grado di legarsi a quel target, prevederne l’interazione, e bilanciare in tempo reale potenza, stabilità e “drug-likeness” come se fosse un direttore creativo della chimica computazionale. Il tutto senza sbagliare il concept.

L’intelligenza artificiale generativa come strumento di autonomia e privacy: un salto netto nel buio controllato

“Before, I Asked My Mom, Now I Ask ChatGPT”:
Visual Privacy Management with Generative AI for Blind and
Low-Vision People

L’idea che l’intelligenza artificiale generativa possa diventare un alleato insostituibile per chi vive con una disabilità visiva è una rivoluzione sottotraccia, più potente di quanto si pensi. Non si tratta semplicemente di sostituire un assistente umano con una macchina. Qui la posta in gioco è molto più alta: parliamo di autonomia, di riservatezza e di dignità, quei concetti che si sgretolano facilmente quando devi dipendere da qualcun altro anche per i dettagli più intimi. I dispositivi come ChatGPT, Be My AI e Seeing AI non solo facilitano la vita delle persone cieche o ipovedenti (BLV), ma rimodellano la relazione tra individuo e tecnologia, portandola su un piano in cui la privacy non è un lusso ma un requisito imprescindibile.

NASA l’era in cui la medicina spaziale deve dimenticare la terra

Il concetto di “medicina di prossimità” assume un significato completamente diverso quando il paziente è a 384.400 chilometri dalla farmacia più vicina e il medico di guardia è un’intelligenza artificiale. Fino ad oggi, gli astronauti sulla Stazione Spaziale Internazionale hanno potuto contare su un filo diretto con Houston, rifornimenti regolari di farmaci e strumenti, e persino un passaggio di ritorno in poche ore in caso di emergenza grave. Ma tutto questo sta per diventare un lusso del passato. Con la NASA che, insieme a partner commerciali come SpaceX di Elon Musk, punta a missioni di lunga durata verso la Luna e Marte, il paradigma della cura medica in orbita sta cambiando in modo irreversibile.

La grande illusione dell’intelligenza artificiale generativa in medicina: quando la fiducia diventa un rischio mortale

L’illusione più pericolosa del nostro tempo è forse questa: affidare decisioni mediche complesse a modelli di intelligenza artificiale generativa che, per quanto sofisticati, rimangono fondamentalmente dei cantastorie ben addestrati, non medici. Google ha di recente offerto un caso emblematico, quasi grottesco, con il suo Med-Gemini, un modello AI presentato come avanguardia nella diagnostica radiologica. L’errore emerso, identificare un “infarto del ganglio basilar sinistro”, un’entità anatomica inesistente, racconta molto più di un semplice refuso: rivela le fragilità strutturali e cognitive di questi sistemi. Il “basilar ganglia” è una fantomatica creazione che confonde il “ganglio basale” area cerebrale reale con l’“arteria basilare” vaso sanguigno anch’esso reale ma ben distinto. Si potrebbe liquidare la questione come un errore di battitura, eppure l’assenza di revisione del paper scientifico – a dispetto della correzione nel blog aziendale – sottolinea quanto la superficialità sia diventata il prezzo del marketing tecnologico.

In ambito clinico, però, queste leggerezze non sono semplici fastidi da ignorare. Nel migliore dei casi generano confusione, nel peggiore possono compromettere vite umane. Il problema è che queste AI non sono dotate di coscienza critica o capacità di autocorrezione. Judy Gichoya di Emory University mette a fuoco il cuore del disastro: queste intelligenze “inventano” risposte e raramente ammettono di non sapere. Quando si parla di salute, la disonestà intellettuale, seppur non voluta, diventa una bomba a orologeria. La convinzione che “bigger is better”, ossia aumentare a dismisura i dati di training o la complessità del modello, porti automaticamente a una maggiore affidabilità, è ormai una favola per investitori e appassionati di hype. La realtà è che nessuna quantità di prompt engineering o fine-tuning trasformerà un modello basato su pattern linguistici in un medico affidabile.

Medicina generativa, tra allucinazioni regolatorie e promesse iperboliche

Medicina generativa, tra allucinazioni regolatorie e promesse iperboliche. una dissezione critica di Dougallgpt, Glass.Health e le verità scomode dell’intelligenza artificiale clinica.

“Se una IA sbaglia una diagnosi, chi finisce in tribunale? Il codice o il medico?” Questa domanda, posta provocatoriamente durante un forum internazionale sul futuro dell’AI in medicina, sintetizza con precisione chirurgica l’intero dilemma etico, legale e tecnico dell’applicazione di modelli linguistici generativi (LLM) in ambito sanitario. In questo scenario si affacciano con promesse roboanti due protagonisti: DougallGPT e Glass Health, piattaforme di intelligenza artificiale progettate specificamente per supportare medici e strutture sanitarie nel processo clinico. La domanda da un miliardo di dollari è semplice: possiamo fidarci?

Partiamo dalla fine, come ogni romanzo ben scritto: no, non ancora. Ma anche sì, forse. Dipende. E qui comincia il teatro della complessità.

Quando l’intelligenza artificiale si sveglia male: perché nessun LLM è pronto per la sanità

Silicon Valley sta cercando disperatamente di derubricare come “problema in fase di risoluzione”. Ma la verità, brutale e politicamente scorretta, è che nessun modello linguistico oggi è stabile o sicuro a sufficienza per l’uso clinico. La ricerca di Anthropic sui persona vectors è l’ammissione implicita (anzi, clamorosa) che l’IA generativa non è solo capricciosa, ma potenzialmente pericolosa, soprattutto quando ci illudiamo che sia “affidabile”.

Il Lapsus di Med-Gemini

Nel 2024, Google ha presentato Med-Gemini, una suite di modelli AI per la sanità in grado di generare referti radiologici, analizzare dati clinici ed elaborare immagini mediche complesse. Ma tra gli esempi celebrati nel paper di lancio, la AI ha “diagnosticato” un’infarto nel “basilar ganglia” — una struttura cerebrale che non esiste. L’errore, una fusione inesistente tra “basal ganglia” (reale) e “basilar artery” (diversa e altrettanto reale), è passato inosservato sia nel paper sia nel blog post ufficiale. Dopo che il neurologo Bryan Moore ha segnalato pubblicamente la svista, Google ha modificato silenziosamente il blog, senza correggere la pubblicazione scientifica.

Pagina 1 di 4

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie