La promessa originaria dell’intelligenza artificiale in medicina non era quella di sostituire i medici, ma di espandere brutalmente il campo del visibile. Non più diagnosi basate su ciò che l’occhio umano riesce a cogliere, ma su pattern statistici immersi in dimensioni che nessun radiologo, per quanto brillante, potrà mai esplorare direttamente. Il lavoro sviluppato dalla University of Oxford e pubblicato sul Journal of the American College of Cardiology rappresenta esattamente questo passaggio di paradigma; non un miglioramento incrementale, ma un cambio di prospettiva che, se implementato su larga scala, potrebbe ridefinire la sequenza stessa della medicina clinica.
Categoria: Salute Pagina 1 di 4
Salute, Sanità, Medicina, Ricerca Scientifica, Farmaceutica, Biologia
La Fondazione Biotecnopolo di Siena ha portato a Parigi, alla conferenza scientifica Anrs Mie, la nuova frontiera della vaccinologia. Si chiama Reverse Vaccinology 3.0 e rappresenta l’evoluzione più avanzata degli ultimi decenni: un metodo che integra immunologia e intelligenza artificiale per identificare antigeni promettenti con una velocità prima impensabile, riducendo il tempo di messa a punto dei vaccini da anni a pochi giorni.
Il Policlinico Gemelli di Roma è il primo centro in Italia ad aver introdotto il software Ultreon™ 3.0 di Abbott, una piattaforma di imaging OCT basata sull’intelligenza artificiale che rappresenta un significativo passo avanti nella cardiologia interventistica. Si tratta di un sistema che consente di combinare in un’unica acquisizione immagini ad altissima risoluzione con valutazioni funzionali delle arterie coronarie, riducendo i tempi procedurali e migliorando la precisione del posizionamento degli stent.
Il rilascio open source di Meta TRIBE v2 non è soltanto un aggiornamento incrementale nel già affollato panorama dell’intelligenza artificiale applicata alle neuroscienze; è, più sottilmente, una dichiarazione di guerra a un intero paradigma scientifico costruito su lentezza, scarsità di dati e costi proibitivi. Per decenni, chi ha lavorato con fMRI ha interiorizzato una verità quasi filosofica: osservare il cervello è difficile, costoso, rumoroso e, soprattutto, lento. TRIBE v2 ribalta questa equazione con una brutalità quasi industriale, trasformando la simulazione in un sostituto credibile della misurazione.
Il salto dimensionale è, di per sé, un manifesto. Passare da quattro soggetti a oltre settecento non è una semplice scalabilità, è una mutazione epistemologica. Da mille regioni cerebrali a settantamila non significa solo maggiore granularità, ma una diversa concezione della mappa stessa del cervello, che smette di essere un territorio esplorato a macchie e diventa una superficie quasi continua, interpolata, predetta. Il dato reale, tradizionalmente considerato sovrano, viene degradato a training set rumoroso per un modello che, paradossalmente, lo supera.
L’immagine romantica dello scienziato che passa anni in laboratorio a cercare la molecola giusta non è scomparsa, ha semplicemente trovato un nuovo collega che però non indossa il camice, non beve caffè e non dorme mai. Si chiama intelligenza artificiale.
Negli ultimi anni gli algoritmi sono entrati in modo sempre più stabile nei laboratori farmaceutici, setacciando miliardi di dati biologici, suggerendo nuove molecole e riducendo drasticamente i tempi della ricerca. La trasformazione è ormai così evidente che anche le agenzie regolatorie stanno iniziando a organizzarsi per gestire il fenomeno.
Nel pieno della trasformazione digitale della sanità, la Francia si ritrova a fare i conti con una realtà meno futuristica e decisamente più scomoda. Una massiccia violazione di dati ha esposto le informazioni amministrative e, in alcuni casi, anche dettagli sensibili di circa 15 milioni di cittadini, riportando al centro del dibattito il tema della sicurezza informatica nel settore sanitario.
Il caso di Rosie e l’intelligenza artificiale: un vaccino personalizzato che scuote la biotecnologia
Quando si assiste a una storia come quella di Rosie, il cane di Sydney il cui melanoma ha risposto in modo sorprendentemente rapido a un vaccino mRNA progettato con l’aiuto di strumenti come ChatGPT e AlphaFold, occorre fermarsi un attimo e chiedersi se, in effetti, quello che stiamo vivendo sia una rivoluzione di facciata o un vero punto di svolta nei paradigmi dell’industria biologica. La narrazione dominante nella Silicon Valley e nei corridoi dei venture capitalist spesso dipinge l’intelligenza artificiale come la panacea per tutti i mali della scienza e dell’economia, ma ogni tanto emergono casi che sfidano tanto l’hype quanto lo scetticismo. Nel caso di Rosie, la tempistica da agosto 2025 a gennaio 2026 — con raccolta del tessuto tumorale il 27 agosto, lancio della sperimentazione personalizzata il 9 dicembre e riduzione tumorale di circa la metà entro sette settimane di trattamento — sembra più simile alle promesse audaci dei pitch deck che alla lentezza tipica della R&D farmaceutica tradizionale; tuttavia, un’analisi più attenta rivela spunti che meritano rispetto e scetticismo insieme, perché sono proprio le storie ben raccontate a forgiare l’immaginario tecnologico e a influenzare le decisioni strategiche di fondi, istituzioni e policymaker.
Analisi predittiva delle patologie, diagnosi sempre più precoce, scoperta accelerata di nuovi farmaci. L’intelligenza artificiale in sanità promette molto, talvolta quasi troppo. Tuttavia la tecnologia, da sola, non cura nessuno. Senza competenze adeguate rischia di restare un software sofisticato che lampeggia su uno schermo mentre medici e infermieri continuano a fare miracoli con strumenti tradizionali. Nasce da questa consapevolezza ‘Il futuro della cura’, programma di formazione promosso da Microsoft Italia, Johnson & Johnson Italia e Fondazione Mondo Digitale, presentato a Roma presso il Centro Studi Americani. L’obiettivo è ambizioso e molto concreto: rafforzare le competenze digitali di 50mila professionisti della salute.
Nel lessico della medicina contemporanea esiste un’espressione che pesa più di molte diagnosi: “paziente senza diagnosi”. Dietro questa formula si nasconde un limbo clinico e umano che riguarda milioni di persone nel mondo, sospese tra sintomi, esami, consulti specialistici e attese che possono durare anni. In questo scenario si inserisce DeepRare, un sistema di intelligenza artificiale sviluppato da un team della Shanghai Jiao Tong University e pubblicato su Nature, che promette di ridurre drasticamente i tempi e gli errori nella diagnosi delle malattie rare.
La frontiera delle interfacce cervello-computer non è più un monologo californiano. Se negli ultimi anni il nome di Neuralink è diventato quasi sinonimo di impianto neurale grazie alla capacità mediatica del suo fondatore Elon Musk, oggi la competizione si fa decisamente più affollata e, soprattutto, più geopolitica. Dall’altra parte del Pacifico, la startup di Shanghai NeuroXess sta rivendicando progressi significativi nello sviluppo di interfacce neurali destinate a collegare il cervello umano ai computer, mentre Pechino inserisce formalmente le brain-computer interface tra i settori strategici per la supremazia tecnologica entro il 2030.
Se pensavate che una notte di sonno fosse solo un momento di recupero, Stanford Medicine vi dimostra che vi sbagliavate di grosso. SleepFM trasforma otto ore di movimenti, battito cardiaco e respirazione in un check-up completo della salute, rilevando oltre 100 condizioni con una precisione che fa impallidire molti esami tradizionali. L’intelligenza artificiale qui non legge grafici o numeri, legge un linguaggio invisibile, quello dei segnali corporei che dialogano tra cervello, cuore e polmoni. Questi scambi, impercettibili a un occhio umano, raccontano storie di Parkinson, demenza, disturbi cardiovascolari o respiratori molto prima che qualsiasi sintomo emergente si faccia sentire.
Immaginate un ospedale che decide chi ha bisogno di riabilitazione non più tramite il dialogo con medici e infermieri, ma con un modello di intelligenza artificiale che scansiona ogni parola nelle cartelle cliniche. I ricercatori della NYU Langone hanno implementato esattamente questo: un sistema integrato nelle cartelle cliniche elettroniche che identifica i pazienti che necessitano di cure post-acute, dalle strutture di riabilitazione agli hospice infermieristici, al momento stesso del ricovero. Non si tratta di semplici codici di fatturazione o checklist standardizzate, ma di elaborazione del linguaggio naturale che analizza in tempo reale i dati non strutturati, generando un’istantanea dei rischi sette volte più veloce della lettura manuale della documentazione clinica.
Il 98 per cento del nostro DNA non codifica proteine. Non costruisce nulla di tangibile. Non produce enzimi, strutture, muscoli o anticorpi. È stato chiamato per anni DNA spazzatura, un termine che oggi suona imbarazzante quanto dire che internet fosse una moda passeggera. In quel 98 per cento, ora ribattezzato DNA oscuro, si annidano molte delle varianti genetiche associate alle malattie più complesse, quelle che sfuggono alla logica lineare gene uguale proteina uguale funzione. AlphaGenome di Google DeepMind nasce esattamente qui, non nel territorio rassicurante della biochimica classica, ma nella zona grigia dove la biologia regolatoria incontra la statistica ad alta dimensionalità.
Nel 2026 potremmo assistere a un momento storico nella farmacologia: la Cina potrebbe diventare il primo mercato al mondo a dare l’ok a un farmaco progettato completamente da intelligenza artificiale. La fusione tra algoritmi avanzati e dati genetici umani sta generando quella che gli insider definiscono una “svolta sismica” nello sviluppo dei farmaci. Marc Horn, presidente di Merck China, ha confermato durante l’Asian Financial Forum a Hong Kong che si passa rapidamente dalla scoperta assistita dall’AI alla progettazione completa di composti, con esempi concreti già presenti nel mercato cinese.
Per vent’anni la scena è stata sempre la stessa. Un sintomo banale, una ricerca su Google alle due di notte, una sequenza di risultati che parte da un raffreddore e finisce con una malattia rara letale. “Dr. Google” non ha mai curato nessuno, ma ha prodotto una quantità industriale di ansia, ipocondria e decisioni sbagliate. Oggi quello schema sta cedendo. Non perché le persone abbiano smesso di cercare risposte, ma perché hanno cambiato interlocutore. Al posto della pagina dei risultati c’è un sistema conversazionale che risponde, spiega, rassicura e talvolta sbaglia. ChatGPT Health nasce esattamente in questo spazio ambiguo, dove l’informazione medica online smette di essere un elenco di link e diventa un dialogo strutturato.
Amazon, introducendo Health AI nell’app One Medical, ha deciso che quel momento è arrivato anche per la sanità. Ventiquattro ore su ventiquattro, consigli personalizzati basati sulle tue cartelle cliniche, spiegazione degli esami di laboratorio, domande sui farmaci, rinnovi di prescrizioni e, se serve, instradamento verso una visita video o fisica. Tutto con un’interfaccia gentile, rapida, sempre disponibile. Il sogno di ogni consumatore moderno. L’incubo latente di ogni regolatore serio.
Anthropic ha scelto di fare il salto nel settore sanitario con “Claude for Healthcare”, e non è un annuncio qualsiasi da startup che sogna di rivoluzionare il mondo. Pochi giorni dopo che OpenAI ha lanciato le sue funzionalità per la salute, Anthropic presenta una sfida chiara: conquistare un mercato dove la posta in gioco non è solo tecnologia, ma fiducia, accuratezza e governance. Qui non si tratta di vendere chat allegre, ma di manipolare dati sensibili, orchestrare workflow clinici e garantire che l’AI non diventi una bomba a orologeria legale e reputazionale.
I regolatori EMA e FDA hanno smesso di parlarsi per corridoi riservati e hanno deciso di pubblicare un documento congiunto, mettendo nero su bianco dieci principi condivisi per l’uso dell’intelligenza artificiale nel ciclo di vita del farmaco. Non è una dichiarazione di intenti da convegno, ma una mossa difensiva e offensiva insieme. Difensiva perché negli ultimi anni le autorità si sono viste recapitare dossier pieni di promesse algoritmiche e poveri di prove. Offensiva perché chi governa la regolazione sa che l’intelligenza artificiale farmaceutica non è più un esperimento da laboratorio, ma una leva industriale che può comprimere tempi, costi e rischi, se gestita con disciplina.
Claude for Healthcare non è un prodotto. È una dichiarazione di potere. Anthropic lo sa, OpenAI lo sa, e chiunque abbia mai messo piede in una sala CED di un grande ospedale dovrebbe saperlo. La sanità non è solo un settore verticale. È il campo di battaglia definitivo dell’intelligenza artificiale, quello dove si incrociano dati ad altissima sensibilità, processi regolatori lenti come placche tettoniche e budget che fanno impallidire qualsiasi CFO della Silicon Valley. Quando Anthropic annuncia Claude for Healthcare, non sta semplicemente aggiungendo un’altra feature alla roadmap. Sta dicendo con chiarezza che non intende lasciare a OpenAI il monopolio cognitivo della medicina digitale.
L’uso dell’intelligenza artificiale nel settore sanitario sta entrando in una fase più matura e, soprattutto, più regolamentata. Dopo l’annuncio di OpenAI su ChatGPT Salute, pensato per aiutare i pazienti a comprendere referti e prepararsi alle visite mediche senza sostituirsi ai professionisti, ora tocca alla concorrente Anthropic fare un passo decisivo. La startup americana ha presentato Claude for Healthcare, una versione del proprio chatbot pensata specificamente per il mondo della sanità. La notizia segna un ulteriore punto di svolta: l’AI non viene più proposta solo come strumento generico di supporto, ma come piattaforma integrata nei flussi clinici e di ricerca.
L’intelligenza artificiale sta imparando a fare molte cose: scrivere testi, generare immagini, guidare auto. Ora, però, ha deciso di fare qualcosa di ancora più ambizioso: aiutarci a scoprire il cancro prima che si faccia notare. Si chiama CleaveNet ed è un nuovo sistema di AI sviluppato dai ricercatori del Massachusetts Institute of Technology (MIT) in collaborazione con Microsoft. Secondo quanto descritto in uno studio pubblicato su Nature Communications, questa tecnologia potrebbe aprire la strada a test diagnostici fai-da-te, da usare direttamente a casa, per individuare precocemente diversi tipi di tumore.
C’è un momento preciso in cui una tecnologia smette di essere un giocattolo per power user e diventa un’infrastruttura sociale. ChatGPT Health nasce esattamente lì. Non nel marketing patinato di San Francisco, non nei comunicati rassicuranti sull’uso “solo informativo” dei dati sanitari, ma nel punto in cui milioni di persone hanno già deciso, spontaneamente, di affidare a un modello linguistico le domande più intime sulla propria salute, sul dolore, sull’ansia, sulla morte. OpenAI non sta creando un nuovo bisogno. Sta formalizzando qualcosa che esiste già. E questo è il vero problema.
ChatGPT Health viene presentato come uno strumento di supporto, non di diagnosi, non di trattamento. Linguaggio prudente, studiato con avvocati e medici, come da manuale. Ma la sostanza è più interessante della forma. Consentire la connessione di cartelle cliniche e dati di benessere significa spostare il baricentro della relazione medico paziente. Non verso l’IA, come temono i più ingenui, ma verso la piattaforma che media l’accesso alla conoscenza sanitaria. In altre parole, non stiamo parlando di una nuova app. Stiamo parlando di un nuovo gatekeeper cognitivo.
Una scena che vale più di mille white paper patinati. Un corridoio d’ospedale prima di Natale, luce fredda, caffè annacquato, Marino un tecnico di radiologia che parla a bassa voce davanti a una console di ultima generazione. Non discutono di turni, né di carichi di lavoro, né di quanto l’ennesimo aggiornamento software abbia promesso di “rivoluzionare tutto”. Sono preoccupati. Perché le immagini sono diventate più belle. Troppo belle. Più lisce, più pulite, più rassicuranti. E, dettaglio non trascurabile, meno informative. Lesioni note che si rimpiccioliscono senza una spiegazione clinica, altre che sembrano evaporare come se qualcuno avesse passato una gomma neurale sull’anatomia.
Cinque anni, che nel ciclo dell’innovazione tecnologica equivalgono a un’era geologica compressa, sono passati da quando AlphaFold 2 ha fatto qualcosa che molti ritenevano improbabile e alcuni consideravano quasi fastidioso. Ha risolto in modo credibile un problema aperto da mezzo secolo, la previsione della struttura tridimensionale delle proteine a partire dalla sequenza aminoacidica. Un problema che aveva prodotto carriere, cattedre, finanziamenti e un discreto numero di fallimenti eleganti. Oggi il rumore di fondo dell’hype si è abbassato. Ed è proprio ora che vale la pena guardare AlphaFold non come un colpo di teatro, ma come un’infrastruttura cognitiva che ha cambiato il ritmo della scienza.
C’è un dogma non scritto nella farmacologia antivirale moderna che raramente viene messo in discussione. Lasciare entrare il virus nella cellula, poi cercare di neutralizzarlo. Una strategia che funziona, a volte, ma che assomiglia più a inseguire un ladro quando è già in salotto che a chiudere la porta di casa. La ricerca condotta alla Washington State University e pubblicata su Nanoscale a novembre rompe questo schema con un’eleganza quasi fastidiosa. Invece di colpire il virus dopo l’invasione, individua l’interazione molecolare chiave che consente al virus di entrare nella cellula. Una sola. E la disattiva. Fine del gioco, almeno in laboratorio.
Capire se una mutazione nel Dna può causare una malattia è una delle sfide più importanti della medicina moderna. Un gruppo di ricercatori dell’Università di Pisa, in collaborazione con la Scuola superiore meridionale di Napoli, ha sviluppato uno strumento innovativo che può aiutare ad ottenere dei risultati più velocemente e con maggiore efficienza. Si chiama ProSECFPs ed è capace di creare una sorta di ‘impronta digitale’ delle proteine. A renderlo noto è lo stesso ateneo pisano. Lo studio è stato pubblicato sul Journal of Chemical Information and Modeling.
Cinque anni fa l’idea che un’Intelligenza Artificiale potesse “indovinare” la forma delle proteine sembrava buona più per una puntata di Star Trek che per un laboratorio di biologia molecolare. E invece oggi, a cinque anni dal debutto pubblico di AlphaFold, la realtà ha superato la fantascienza con una naturalezza quasi imbarazzante per chi, fino a poco tempo fa, passava la vita davanti a microscopi e modelli molecolari in plastica. L’IA oggi non si limita a osservare le proteine: le prevede, le disegna in 3D e le mette in banca dati come farebbe con le foto delle vacanze.
Immaginate di sfiorare un interruttore invisibile nel vostro cervello e far uscire parole silenziose, come un sussurro digitale che sfida la paralisi. Non è fantascienza, ma la nuova frontiera di Paradromics, l’azienda texana che ha appena incassato il via libera della FDA per impiantare il suo chip Connexus in due pazienti affetti da gravi disabilità motorie e affette da mutismo. Rivali di Elon Musk?
La scoperta che un modello come Grok AI possa risultare il meno sicuro nel panorama dell’assistenza emotiva digitale arriva con la delicatezza di un terremoto annunciato. Stranamente pochi sembrano rendersene conto, come se l’idea che un algoritmo potesse avere un ruolo reale nel contenere o innescare comportamenti a rischio fosse ancora confinata alle paure distopiche del secolo scorso. Sembra più una sceneggiatura da satira pungente, dove un assistente digitale risponde con sarcasmo proprio quando servirebbe la massima lucidità. La parte ironica, naturalmente, è che non si tratta di fantascienza. I dati offerti dal nuovo test CARE di Rosebud sono fin troppo concreti, e dal punto di vista tecnico mostrano una crepa strutturale che il settore continua a osservare con quel classico misto di stupore e rimozione che contraddistingue le grandi rivoluzioni tecnologiche.
Il paradosso della sicurezza digitale moderna è che le stesse tecnologie nate per difendere la società si stanno trasformando nel suo nemico più insidioso. Gli spyware governativi come Pegasus di NSO Group o Graphite di Paragon erano stati concepiti, almeno ufficialmente, come strumenti di precisione per colpire terroristi e criminali organizzati. La retorica era impeccabile: “sorveglianza mirata”, “interventi legittimi”, “uso responsabile”. La realtà, invece, è quella di una macchina di controllo fuori controllo, capace di insinuarsi nella vita privata di chiunque con la stessa facilità con cui si invia un messaggio su WhatsApp.
La tempesta perfetta dell’intelligenza artificiale in sanità
La sanità americana è entrata in una nuova era, e questa volta non si tratta di un aggiornamento software o di un’ennesima promessa di digital transformation. Il 17 settembre 2025 la Joint Commission e la Coalition for Health AI hanno rilasciato il Responsible Use of AI in Healthcare framework, la prima guida nazionale firmata da un ente di accreditamento per garantire un uso sicuro, etico e trasparente dell’intelligenza artificiale nei flussi clinici e operativi. Non un semplice documento tecnico, ma il preludio di una nuova infrastruttura morale e regolatoria destinata a ridisegnare il rapporto tra tecnologia, medicina e fiducia.
Sycophantic AI Decreases Prosocial Intentions and
Promotes Dependence
La notizia non è un lampo nel cielo, ma un’ombra già prevista: i modelli conversazionali come ChatGPT, Gemini & co. non sono solo strumenti; sono seduttori verbali, pronti a confermare i tuoi pensieri anche quando sono sbagliati. E ora uno studio – in attesa di peer review – quantifica quanto: “i modelli (AI) sono il 50 per cento più adulatori degli esseri umani”.(vedi Nature+1)

In una recente conversazione, Dario Amodei, CEO di Anthropic, e Diogo Rau, Chief Information and Digital Officer di Eli Lilly and Company, hanno discusso del ruolo trasformativo dell’intelligenza artificiale nel settore delle scienze della vita. Il dialogo ha messo in luce come Lilly stia integrando modelli come Claude per migliorare la ricerca clinica e lo sviluppo di farmaci.
Immaginate un mondo dove la biologia cellulare non richiede più pipette, centrifughe o gel elettroforetici. La nuova frontiera, definita da scienziati di Google DeepMind, Chan Zuckerberg Initiative e Allen Institute, punta a costruire una cellula umana completamente digitale. L’obiettivo dichiarato è trasformare la biologia cellulare da un campo “90% sperimentale” a uno “90% computazionale”. Chi l’avrebbe detto che il sogno di un pranzo di quindici anni fa, dove un biologo computazionale immaginava di osservare ogni reazione di una cellula su uno schermo, oggi appare realistico?
Quando Google Research e UC Santa Cruz dicono «abbiamo lanciato un modello AI che supera tutto» non è marketing, è guerra sui dati. DeepSomatic è il frutto dell’accoppiata fra l’esperienza in varianti genomiche di Google e il rigore bioinformatico dell’UCSC Genomics Institute. È stato presentato in un blog ufficiale Google come “un modello che identifica le varianti tumorali acquisite con precisione nei diversi dati di sequenziamento” (Visita Blog research.google). Nell’articolo ufficiale Google si legge che il lavoro è stato pubblicato su Nature Biotechnology con titolo: Accurate somatic small variant discovery for multiple sequencing technologies.
I ricercatori di Apple hanno presentato SimpleFold, un nuovo modello di intelligenza artificiale progettato per prevedere la struttura 3D delle proteine con una potenza di calcolo nettamente inferiore rispetto ai sistemi esistenti, come l’acclamato AlphaFold di Google DeepMind. Questa innovazione rappresenta un grande passo avanti verso la democratizzazione della biologia strutturale, permettendo a un numero maggiore di laboratori di studiare le proteine e accelerare la scoperta di farmaci senza la necessità di accedere a cluster di supercomputer mastodontici.

Il giorno in cui un’intelligenenza artificiale ha superato il semplice “riconoscere modelli” e ha generato una ipotesi biologica nuova, da confermare sperimentalmente, è qui. DeepMind ha annunciato mercoledì che il suo ultimo sistema di IA biologica ha formulato e poi verificato in laboratorio una proposta rivoluzionaria per il trattamento del cancro, definendo questo risultato “un traguardo per l’intelligenza artificiale nella scienza”. Con Yale, DeepMind ha rilasciato un modello di fondazione per l’analisi a singola cellula da 27 miliardi di parametri, denominato Cell2Sentence-Scale 27B (C2S-Scale), costruito sulla famiglia open-source Gemma. Il modello ha generato “una nuova ipotesi sul comportamento cellulare del cancro” che è stata da allora validata sperimentalmente in cellule viventi. (vedi blog Google)
L’annuncio di Microsoft sul “zero day biologico” è uno spartiacque: un’ombra sul confine tra innovazione e catastrofe, dove l’intelligenza artificiale diventa arma o specchio deformato della vita. Scienziati di Microsoft, guidati da Eric Horvitz, hanno mostrato che modelli di AI per il design proteico possono generare sequenze che eludono sistemi di screening genetico quelli che dovrebbero impedire la sintesi di materiali pericolosi.
Google Research ha recentemente presentato un prototipo di agente sanitario personale basato su modelli linguistici di grandi dimensioni (LLM), progettato per analizzare dati provenienti da dispositivi indossabili quotidiani e da dati sanitari, come biomarcatori ematici, per offrire approfondimenti sanitari basati su prove e fornire un’esperienza di coaching personalizzata.
Quando si parla di prevenzione secondaria in cardiologia, di solito si cita il controllo dei fattori di rischio (ipertensione, colesterolo, diabete, stile di vita). Ma c’è un terreno più “tecnologico”, in cui entra in gioco l’imaging non invasivo: l’idea che un esame “fotografico” delle arterie, ad intervalli prefissati, possa intercettare lesioni in stent o progressione aterosclerotica prima che si traducano in eventi acuti. In quel contesto nasce PULSE, lo studio presentato al Congresso Europeo di Cardiologia 2025, che ha acceso un faro su quando non se usare la TAC coronarica di controllo.