Sarebbe piaciuto a Schrödinger, anche se probabilmente avrebbe chiesto a ChatGPT di spiegargli cosa sia un dataset da 100 milioni di DFT. In un’alleanza che ha più del Manhattan Project che di una startup in garage, Meta, Los Alamos National Laboratory e il Lawrence Berkeley Lab hanno appena acceso una miccia quantistica sotto la chimica computazionale. Il risultato si chiama Open Molecules 2025, ed è, senza giri di parole, la più grande biblioteca pubblica mai rilasciata di simulazioni molecolari ad alta fedeltà. Parliamo di oltre cento milioni di calcoli al livello della teoria funzionale della densità, o DFT per chi ha confidenza con l’inferno della meccanica quantistica applicata alla materia.
Categoria: Salute Pagina 1 di 2
Salute, Sanità, Medicina, Ricerca Scientifica, Farmaceutica, Biologia

Benvenuti nel teatro dell’assurdo digitale europeo, dove il sogno di una sanità interconnessa e intelligente si scontra con la realtà di un mosaico normativo che farebbe impallidire persino Kafka. Nel cuore di questa pantomima c’è l’European Health Data Space (EHDS), un progetto che promette miracoli tecnologici – cartelle cliniche interoperabili, algoritmi predittivi, cure personalizzate – e invece consegna alla classe dirigente europea un guazzabuglio di piattaforme regionali in mano a aziende private spesso più interessate al business che al bene comune.
Immaginate di rompervi una gamba sulle Alpi francesi nel 2034. In teoria, l’ortopedico di Grenoble dovrebbe accedere alla vostra cartella clinica italiana in tempo reale, somministrarvi i farmaci giusti e aggiornare un algoritmo che previene future fratture. In pratica, buona fortuna. Le infrastrutture sono disgiunte, i protocolli blindati, i dati confinati in recinti nazionali blindati da egoismi burocratici che definire provinciali è un eufemismo. L’idea di una Federazione delle Repubbliche Sanitarie Regionali europee si infrange contro la realtà dei governi che preferiscono affidare la gestione a soggetti terzi — spesso poco trasparenti — e difendere il proprio orticello digitale come un’antica proprietà feudale.

Quando l’intelligenza artificiale incontra la medicina, la posta in gioco non è una startup da miliardi, ma la vita umana. Eppure, in Cina, l’ultima frontiera di questa rivoluzione si sta costruendo con budget da stagista. Letteralmente.
DeepSeek, startup AI cinese ancora misteriosamente silenziosa sul lancio del suo modello avanzato R2 reasoning, ha deciso che per migliorare l’accuratezza diagnostica servono… studenti pagati 500 yuan al giorno (circa 70 dollari). In cambio? Quattro giorni a settimana etichettando dati medici, scrivendo prompt in Python e domando la bestia linguistica dei Large Language Models. L’annuncio, apparso su Boss Zhipin, non sulla loro pagina ufficiale, sembra quasi un messaggio cifrato: “Sappiamo dove andiamo, ma non ve lo diciamo”.

Diciamolo senza girarci intorno: l’Intelligenza Artificiale non è interessata al tuo cuore, ma al tuo cuore visto da una risonanza magnetica, incrociato con i tuoi esami del sangue, i tuoi battiti notturni tracciati dall’Apple Watch, le tue abitudini alimentari dedotte da quanto sushi ordini su Glovo e da quanto insulina consumi nel silenzio della tua app.
Benvenuti nell’era dell’ecosistema dei dati sanitari, un mondo che sembra pensato da un bioeticista impazzito e un data scientist con la passione per il controllo.
Mentre l’European Health Data Space (EHDS, per gli amici stretti della Commissione Europea Regolamento 2025/327) si appresta a diventare il cuore pulsante del nuovo continente digitale della salute, le big tech affilano gli algoritmi. Il paziente europeo diventa il più grande fornitore gratuito di dati strutturati mai esistito. E noi? Noi firmiamo i consensi informati senza leggerli, applaudiamo all’efficienza predittiva, e poi ci indigniamo perché la nostra assicurazione sanitaria sa che abbiamo preso troppo ibuprofene a maggio.

C’è un momento preciso, in ogni sala di radiologia, in cui il silenzio si fa opprimente. Il clic secco della macchina, lo sguardo esitante del tecnico, la paziente che cerca di leggere negli occhi di chi la osserva. Fino a ieri, quel momento era seguito da giorni d’attesa, telefonate, diagnosi più o meno tempestive, spesso tardive. Da oggi, o meglio da fine anno, tutto potrebbe cambiare: è arrivata Clarity Breast. Un nome che sa di marketing farmaceutico e shampoo pubblicitario, ma dietro cui si nasconde qualcosa di molto più serio. Perché per la prima volta la Food and Drug Administration ha detto sì a una piattaforma d’intelligenza artificiale che, partendo da una mammografia 2D standard, predice il rischio di cancro al seno di una donna nei prossimi cinque anni. Non diagnosi. Predizione.
Una volta, nei corridoi asettici dell’FDA, un revisore scientifico impiegava tre giorni per sviscerare un dossier di eventi avversi. Ora, con Elsa, bastano sei minuti. Tre giorni trasformati in un battito di ciglia algoritmico. Non è una sceneggiatura distopica firmata Black Mirror, è l’annuncio, con tanto di video ufficiale, del commissario Marty Makary. Sorridente, compiaciuto, quasi commosso. L’intelligenza artificiale ha appena salvato l’apparato regolatorio americano da se stesso. O, almeno, ha iniziato a farlo.

Siamo nel pieno della febbre dell’intelligenza artificiale applicata alla medicina. Gli articoli si moltiplicano come funghi radioattivi in una foresta post-apocalittica, le promesse si sprecano: diagnosi più rapide, prognosi più accurate, cure personalizzate grazie al miracolo del machine learning. Eppure, sotto la patina brillante della narrazione tecnofila, si nasconde una realtà meno patinata, meno vendibile ai convegni patinati e agli investitori entusiasti: il 96% di questi modelli non è mai stato testato fuori dal suo giardinetto addestrativo. Tradotto in clinichese: sono giocattoli da laboratorio, non strumenti affidabili per la vita reale.
Il problema ha un nome preciso: validazione esterna. Concetto semplice, brutalmente ignorato. Significa prendere un modello e testarlo con dati raccolti in un altro ospedale, in un’altra regione, da un altro team, con altri protocolli. E scoprire, spesso con raccapriccio, che la performance non è più così miracolosa. Succede perché i modelli non sono intelligenti, sono abitudinari: imparano a riconoscere le pieghe dei dati da cui sono nati, ma inciampano appena escono di casa. Più che chirurghi robotici, sono studenti che hanno imparato le domande dell’esame a memoria. E appena cambi università, vanno in crisi esistenziale.

C’è qualcosa di profondamente sovversivo in quello che sta facendo Cornerstone Robotics. Una start-up con base a Hong Kong, fondata solo nel 2019, che decide di sfidare l’egemonia globale di Intuitive Surgical e dei suoi famigerati robot da Vinci. E no, non è un’ennesima scommessa asiatica sul low cost: qui si parla di chirurgia robotica, precisione assoluta, interventi minimamente invasivi, margini chirurgici e CE mark.
Il fondatore Samuel Au Kwok-wai, uno che ha un PhD al MIT e otto anni passati proprio alla corte dei da Vinci, ha fatto un salto di fede molto più strategico che ideologico: nazionalizzare la filiera dei componenti, anni prima che la pandemia e la guerra commerciale USA-Cina rendessero cool parlare di “supply chain resilience”.

La Gran Bretagna, patria del pragmatismo anglosassone e dei treni che arrivano in ritardo con puntualità matematica, decide di lanciarsi nell’impresa più ambiziosa del XXI secolo: trasformare la medicina da reattiva a predittiva. Non un upgrade, ma un salto quantico. Lo fa attraverso Foresight, un nome che puzza di marketing più che di scienza, ma dietro cui si nasconde un progetto tanto visionario quanto disturbante: usare un’intelligenza artificiale generativa per prevedere chi si ammalerà, quando e di cosa, per poi intervenire in anticipo con terapie personalizzate. Futuristico? No, inquietante. Perché qui non si parla più di diagnosi precoce, ma di pre-destino clinico.

Una startup di Hong Kong, che fino a ieri confezionava tamponi per il COVID come fossero spaghetti istantanei, oggi ha raccolto 34 milioni di dollari per un test all’apparenza banale, ma con potenziale da unicorno biotech: rilevare l’HPV (virus del papilloma umano) con l’urina. Non un Pap test, non un prelievo, niente speculum medievali o stiramenti imbarazzanti sul lettino ginecologico. Solo pipì. In provetta. A casa.
Se ti suona troppo bello per essere vero, benvenuto nel mondo della medicina molecolare del 2025, dove i biomarcatori galleggiano in campioni che nessuno voleva, ma che ora sono oro liquido. Letteralmente: 34 milioni di dollari lo confermano.

Chi ha detto che per parlare servono le corde vocali? O che l’interazione debba passare per un touchscreen, una tastiera, una bocca? La nuova frontiera delle interfacce cervello-computer (BCI, per chi mastica l’acronimo come chewing gum scientifico) non si accontenta più di interpretare click mentali o movimenti oculari. No, adesso decodifica il linguaggio direttamente dalla corteccia motoria ventrale. E lo fa pure con un certo stile, ricostruendo la voce originale di chi ormai non può più usarla. Un paradosso tecnologico sublime, quasi poetico, se non fosse così crudelmente reale.
La parola chiave è neuroprotesi vocale, il contesto è l’inferno progressivo chiamato SLA (sclerosi laterale amiotrofica), e il risultato è una macchina che, dopo 30 minuti di addestramento e 256 elettrodi ben piantati nella testa di un paziente, capisce quello che vorrebbe dire e lo dice al posto suo. Con la sua voce. O meglio, con una copia sintetica di quella che aveva prima che la malattia gliela strappasse via.

Che succede quando un medico “vede” 10.000 pazienti… in 72 ore? Non in corsia, ma in un ospedale dove ogni infermiera, paziente, specialista e tirocinante è un agente autonomo AI. Nessun badge, nessun caffè di reparto, solo codici e simulazioni. È il nuovo giocattolo di Tsinghua University e lo hanno chiamato Agent Hospital.
La medicina non è mai stata un campo per deboli di cuore. Ma ora non è nemmeno più solo un affare da umani.
Il paradigma è semplice, ma letale nella sua eleganza: niente pretraining, niente dati etichettati. Un buco nero chiuso dove agenti artificiali imparano sbagliando. Falliscono, riflettono, si adattano. E il ciclo si ripete. Proprio come i medici junior in pronto soccorso. Solo che questi impiegano ore, non anni.

Sembra fantascienza, vero? Un’intelligenza artificiale, un chatbot, quel coso che di solito ti aiuta a scrivere email più educate o a capire cosa cucinare con due patate e mezzo limone, che invece si mette a indicare con sorprendente precisione dove aprire la scatola cranica per fermare un’epilessia farmaco-resistente. Non stiamo parlando di un gioco, ma di neurochirurgia: bisturi, cervello, e decisioni da cui dipende la qualità (o l’esistenza) della vita.
La parola chiave è epilessia. Un disturbo neurologico che non fa prigionieri: 70 milioni di persone nel mondo, 3,4 milioni solo negli USA. E circa un terzo di loro non risponde ai farmaci. Soluzione? Operare. Ma non si tratta certo di togliere una tonsilla: bisogna identificare con precisione la zona epilettogena (EZ), quel piccolo inferno cerebrale che scatena le crisi. Il problema? Trovarla è come giocare a Battleship al buio.

OpenAI ha appena alzato il livello della sfida, portando il mondo dell’intelligenza artificiale medica verso un nuovo orizzonte con il lancio di HealthBench, un benchmark open source progettato per testare le capacità degli LLM (modelli linguistici di grandi dimensioni) nel rispondere a domande mediche. Ma non stiamo parlando di un generico set di dati o di un sistema che si limita a rispondere in modo aleatorio: HealthBench si distingue per un approccio sofisticato e mirato, con criteri medici rigorosi e la capacità di analizzare risposte in ben 49 lingue diverse. Questo non è solo un passo in avanti nel campo dell’AI, è una vera e propria rivoluzione nella valutazione della competenza medica delle AI, che rischia di cambiare per sempre il modo in cui interagiamo con le tecnologie sanitarie.
Ma chi sta davvero vincendo in questa partita? Gli LLM? O siamo solo spettatori di un gioco dove l’umanità si trova a fare da semplice comparsa? La risposta, ovviamente, non è semplice.

Mettiti comodo, apri la fotocamera, sorridi… e preparati a sapere se morirai prima del previsto. No, non è un nuovo filtro di TikTok, è FaceAge, l’ultima creatura partorita dai cervelli (e server) del Mass General Brigham. Un algoritmo che guarda una tua semplice selfie e ti sussurra all’orecchio non solo quanti anni sembri, ma quanti te ne restano. Spoiler: spesso meno di quanto pensi.
Non è fantascienza, è biologia computazionale servita con un bel contorno di machine learning. L’idea è elegante quanto brutale: il tuo volto non racconta solo l’età anagrafica, ma quella biologica. Cioè: quanto stai invecchiando davvero, dentro le tue cellule, i tuoi mitocondri, i tuoi telomeri stanchi. E già che ci siamo, dice anche se risponderai bene a un trattamento oncologico, o se faresti meglio a iniziare a sistemare le questioni in sospeso.

Mentre l’Occidente ancora discute di etica, bias e approvazioni regolatorie, la Cina decide di saltare a piè pari la fase del dibattito e spalanca le porte alla medicina del futuro: è ufficiale, è operativo, ed è qualcosa che farà tremare più di un camice bianco. Stiamo parlando del primo ospedale al mondo completamente gestito da agenti intelligenti. Non un assistente virtuale, non un chatbot da centralino, ma un sistema chiuso, strutturato, interamente popolato da 42 medici AI capaci di diagnosticare, interagire, proporre piani di trattamento e presto anche conversare con i pazienti.

Addio Dr. House, benvenuto Dr. Bot.

el backstage high-tech di Washington, dove algoritmi e lobbying si incontrano a porte chiuse, qualcosa di interessante — e inquietante — sta bollendo in pentola. La U.S. Food and Drug Administration, un organismo storicamente noto per la sua lentezza pachidermica nel valutare farmaci, sta flirtando con l’AI. Non un’AI qualsiasi: OpenAI, la creatura (ora semidomata da Microsoft) che ha portato ChatGPT nel mondo, è finita in colloqui ripetuti con la FDA, secondo fonti di Wired. E no, non si tratta solo di “esplorare possibilità”: si parla già di un progetto pilota con tanto di acronimo evocativo cderGPT e il coinvolgimento diretto del primo AI officer della FDA, Jeremy Walsh.

Pharus Diagnostics è il tipo di startup che sembra uscita da un pitch deck da fantascienza: taiwanese, guidata da un CEO con i piedi ben piantati nel fundraising, benedetta dalla cassaforte di Li Ka-shing e dal radar d’oro dell’AI applicata alla medicina. Non sorprende che abbia scelto Hong Kong come hub per la prossima iniezione di capitali, puntando a chiudere un round entro la fine dell’anno con già metà dei fondi promessi in tasca e uno studio clinico sul cancro ai polmoni pronto a partire.

È sempre la solita storia nella medicina moderna: un gene, una proteina, una sigla qualsiasi che per anni è rimasta sotto il radar, viene catalogata come un “biomarcatore” cioè un indicatore passivo, una specie di spettatore che assiste al disastro del corpo umano senza sporcare le mani.
Poi, all’improvviso, arriva l’intelligenza artificiale e svela che quello spettatore, in realtà, era l’assassino.

Scrivere sembra l’atto più banale del mondo. Prendi una penna, appoggi la punta su un foglio e lasci che la mano faccia il resto. Eppure, dietro quel gesto così quotidiano, si cela un balletto neuronale di impressionante complessità. La scrittura attiva simultaneamente lobi frontali, aree motorie, centri del linguaggio e processi cognitivi ad alta intensità. Se qualcosa si inceppa in quel sistema, la scrittura si deforma. E da lì, ecco che il cervello inizia a raccontare una storia che nemmeno sa di star scrivendo.
È proprio questa intuizione che ha dato vita a AD Detection, un progetto con l’ambizione (seria) di intercettare l’Alzheimer prima che si manifesti. A muovere i fili sono l’Università di Cassino e del Lazio Meridionale e Seeweb, provider infrastrutturale che con GPU serverless e Kubernetes ha deciso di prestare muscoli digitali al cervello umano.
Un po’ Black Mirror, un po’ medicina del futuro.

Sembra un’idea uscita da un laboratorio segreto di Google X, e invece è realtà open source. Prendi una cellula, una qualsiasi, una di quelle che ti porti appresso ogni giorno senza degnarla di uno sguardo. Quella cellula sta facendo qualcosa: produce proteine, si divide, reagisce agli stimoli. Ora immagina di trasformare tutte queste attività, tradizionalmente descritte da migliaia di numeri inaccessibili ai più, in una semplice frase in inglese. Voilà: benvenuti nell’era del linguaggio cellulare, dove le cellule parlano e i Large Language Models (LLM) ascoltano.
Dietro questa rivoluzione semiotica c’è C2S-Scale, una suite di modelli linguistici sviluppata a partire dalla famiglia Gemma di Google, pensata per interpretare e generare dati biologici a livello monocellulare. L’acronimo sta per “Cell-to-Sentence Scale” e il concetto è tanto semplice quanto spiazzante: convertire il profilo di espressione genica di una singola cellula in una frase testuale. Come trasformare una sinfonia genetica in una poesia sintetica. A quel punto puoi parlarci. Chiederle cosa fa. O come si comporterebbe sotto l’effetto di un farmaco.

La notizia ha un suono familiare, ma stavolta c’è una sfumatura inedita: la Food and Drug Administration americana ha appena concesso la designazione di “breakthrough device” al modello AI per la diagnosi del cancro sviluppato da Alibaba, noto come Damo Panda. E no, non è uno scherzo: un colosso tecnologico cinese, spesso sotto tiro per questioni geopolitiche e cybersicurezza, ottiene un timbro di eccellenza da parte dell’ente regolatore sanitario più influente al mondo. Questo, più che un’apertura, sa tanto di resa strategica: l’intelligenza artificiale, ormai, parla mandarino anche nel cuore del biomedicale USA.
Damo Panda è un modello deep learning pensato per scovare il cancro al pancreas nelle sue fasi iniziali, quelle che i radiologi umani spesso si perdono, soprattutto se il paziente non ha ancora sintomi. Lo fa elaborando immagini da TAC addominali non contrastografiche, una sfida clinica e computazionale niente male. Allenato su una base dati di oltre tremila pazienti oncologici, Panda ha dimostrato di battere i radiologi in sensibilità diagnostica del 34,1%. E non stiamo parlando di un benchmark simulato: in Cina ha già operato su 40.000 casi reali presso l’ospedale di Ningbo, individuando sei tumori pancreatici in fase precoce, di cui due erano sfuggiti completamente alle analisi umane. Un colpo basso alla medicina difensiva e ai cultori della seconda opinione.

Mentre l’Occidente ancora dibatte sulla privacy dei dati sanitari e sull’etica dell’intelligenza artificiale applicata alla medicina, Ant Group la fintech figlia prediletta del colosso Alibaba ha già messo online cento dottori virtuali. O meglio: cento agenti AI, addestrati direttamente dai team di celebri medici cinesi e pronti a rispondere 24 ore su 24 tramite l’app Alipay. Non si tratta di chatbot generici: ognuno di questi agenti è modellato su un luminare in carne ed ossa, e promette “consigli autorevoli e credibili” con il tocco freddo ma immediato del silicio.
Sì, la sanità in Cina sta diventando un prodotto plug-and-play, un servizio embedded nell’ecosistema digitale di una super app. Il cittadino non deve più neppure uscire da Alipay originariamente un’app di pagamento per ottenere diagnosi, consulenze, analisi di referti caricati via smartphone e perfino prenotazioni per visite in presenza. Il cerchio è chiuso, l’utente è fidelizzato, il medico è virtuale.

Per 18 lunghi anni, Anne è rimasta intrappolata nel proprio corpo, priva della possibilità di esprimersi a causa di un ictus devastante. Poi, grazie a un’interfaccia cervello-computer sperimentale sviluppata dall’Università della California a Berkeley e San Francisco, la sua voce è tornata. Non si tratta di un miracolo, ma del frutto di una combinazione letale di intelligenza artificiale, machine learning e neuroscienze avanzate.
Il principio è semplice nella teoria, ma diabolicamente complesso nella pratica: un’interfaccia legge i segnali cerebrali e li traduce in linguaggio naturale in tempo reale. Il risultato? Anne parla di nuovo. Non con la sua voce originale, ovviamente, ma con una versione sintetica, ricreata digitalmente a partire da registrazioni precedenti al suo ictus. Un’eco del passato riportata in vita dall’IA.
La ricerca, pubblicata su Nature Neuroscience, rappresenta un passo avanti significativo rispetto ai precedenti tentativi di comunicazione per pazienti “locked-in”, cioè cognitivamente presenti ma incapaci di muoversi o parlare. Fino ad ora, si affidavano a interfacce lente e macchinose, come il tracciamento degli occhi o i sintetizzatori vocali tipo Stephen Hawking. Ora, invece, il tempo di risposta è quasi istantaneo, rendendo la conversazione più naturale.

Dartmouth ha appena sganciato una bomba nel mondo della salute mentale: il primo trial clinico su un chatbot terapeutico basato sull’intelligenza artificiale, Therabot, ha portato a miglioramenti clinicamente significativi nei pazienti affetti da depressione, ansia e disturbi alimentari. La ricerca, pubblicata su NEJM AI il 27 marzo 2025, apre la strada a una domanda cruciale: possiamo davvero affidarci alle macchine per curare la nostra mente?
L’illusione della relazione terapeutica
I risultati dello studio sono sorprendenti: una riduzione del 51% dei sintomi nei pazienti depressi, del 31% in quelli ansiosi e del 19% nei soggetti con disturbi alimentari. Numeri che fanno impallidire molte terapie tradizionali. Ma il dato più interessante è un altro: le persone hanno interagito con Therabot come se fosse un terapeuta in carne e ossa. Hanno costruito con lui una “relazione”, rispondendo dettagliatamente ai suoi input e, in molti casi, iniziando autonomamente le conversazioni.

Isomorphic Labs, la sussidiaria di Alphabet specializzata nella scoperta di farmaci basata sull’intelligenza artificiale, ha raccolto 600 milioni di dollari nel suo primo round di finanziamento. La notizia, annunciata lunedì, segna un passo significativo nell’accelerazione della ricerca farmaceutica attraverso l’AI, consolidando il dominio di Alphabet nel settore biotecnologico.
A guidare il round di investimento è stata Thrive Capital, un nome ben noto nel panorama tecnologico e uno dei principali investitori in OpenAI. Anche Alphabet e Google Ventures altra controllata di Alphabet hanno partecipato al finanziamento, a dimostrazione dell’impegno della casa madre nel portare l’intelligenza artificiale nel mondo della medicina.

L’IA sta sfidando ironicamente la medicina tradizionale, offrendo una speranza e una provocazione. ECgMLP: Un modello MLP innovativo con gate per una diagnosi migliorata del cancro endometriale è stato pubblicato sulla rivista Computer Methods and Programs in Biomedicine Update Dr Asif Karim
Il nuovo modello ECgMLP ha raggiunto un’accuratezza del 99,26% nel rilevare il cancro dell’endometrio, lasciando nella polvere sia i migliori specialisti umani (78-81% di accuratezza) sia le attuali metodologie automatizzate. Se confermato su larga scala, questo sistema potrebbe rivoluzionare la diagnosi precoce del cancro, riducendo drasticamente i tempi di intervento e salvando milioni di vite.
Il segreto di ECgMLP sta nella sua capacità avanzata di analisi delle immagini. Utilizzando meccanismi di self-attention, il modello è in grado di elaborare dettagli microscopici nei tessuti, evidenziando le cellule cancerose con una precisione impensabile per l’occhio umano. Questo non solo elimina gran parte dell’errore diagnostico, ma potrebbe anche ridurre i costi e i tempi legati alla valutazione patologica tradizionale.
E non si ferma solo al cancro dell’endometrio. Il modello ha dimostrato un’efficacia straordinaria anche su altri tipi di tumori: colorettale (98,57%), mammario (98,20%) e orale (97,34%). Questo livello di accuratezza pone ECgMLP al centro di una rivoluzione oncologica, dove la diagnosi precoce diventa non solo una possibilità, ma una certezza.
Se da un lato questa tecnologia apre scenari entusiasmanti, dall’altro potrebbe scatenare un’inevitabile crisi nella professione medica. Con un’IA che surclassa i migliori patologi, quale sarà il ruolo del medico del futuro? L’adozione su larga scala di questi strumenti non è più una questione di “se”, ma di “quando”. Il problema non è la tecnologia, ma la velocità con cui il sistema sanitario riuscirà ad adattarsi.

Hyperfine, nota per il suo innovativo sistema di risonanza magnetica portatile, ha recentemente annunciato una collaborazione con NVIDIA per rivoluzionare la ricostruzione delle immagini mediche attraverso l’intelligenza artificiale. Questa partnership mira a integrare la potenza delle GPU NVIDIA nelle soluzioni di imaging di Hyperfine, con l’obiettivo di migliorare significativamente la qualità delle immagini e ridurre i tempi di scansione.
Nel campo dell’imaging medico, la velocità e la precisione sono fondamentali. Le tradizionali scansioni di risonanza magnetica possono richiedere tempi prolungati, causando disagi ai pazienti e aumentando i costi operativi. Integrando le GPU NVIDIA, note per le loro capacità di calcolo parallelo e per l’accelerazione delle applicazioni basate su IA, Hyperfine punta a ottimizzare i processi di acquisizione e ricostruzione delle immagini. Questo potrebbe tradursi in scansioni più rapide e immagini di qualità superiore, migliorando l’efficienza clinica e l’esperienza del paziente.

L’Alzheimer rappresenta una delle sfide più complesse per la medicina moderna. Con oltre 47,5 milioni di persone affette a livello globale, questa patologia neurodegenerativa continua a mettere sotto pressione i sistemi sanitari e le famiglie dei pazienti. Ad oggi, non esistono cure risolutive, rendendo la diagnosi precoce una priorità assoluta per ritardare la progressione della malattia e massimizzare l’efficacia dei trattamenti esistenti.
Uno studio pubblicato su Frontiers in Aging Neuroscience nel 2018 ha dimostrato come la risonanza magnetica (MRI) combinata con test neuropsicologici e algoritmi di intelligenza artificiale possa predire la conversione del deterioramento cognitivo lieve (MCI) in Alzheimer con un’accuratezza dell’85% fino a 24 mesi prima della diagnosi clinica definitiva. Questi risultati evidenziano un cambio di paradigma nella diagnosi della malattia, aprendo le porte a strategie terapeutiche più mirate e tempestive.

Tempus AI, leader nell’adozione dell’intelligenza artificiale per la medicina di precisione, ha recentemente acquisito Deep 6 AI, azienda nota per il suo software avanzato di accelerazione dei trial clinici. Deep 6 AI ha sviluppato una piattaforma che utilizza algoritmi di apprendimento automatico per analizzare grandi quantità di dati genomici e clinici, identificando schemi e relazioni che possono migliorare i risultati dei pazienti, ridurre i costi sanitari e accelerare la ricerca medica.
Questa acquisizione rappresenta un passo significativo per Tempus AI, che mira a integrare le capacità di Deep 6 AI nel proprio ecosistema di ricerca clinica. La piattaforma di Deep 6 AI è nota per la sua capacità di eseguire valutazioni di fattibilità dei trial e reclutamento dei pazienti utilizzando concetti di intelligenza artificiale, inclusa l’elaborazione del linguaggio naturale (NLP), per abbinare con precisione i criteri di ricerca alle caratteristiche dei pazienti in tempi ridotti, portando a una maggiore efficienza nei trial clinici.


La radiomica rappresenta una delle innovazioni più promettenti nel campo della diagnostica per immagini e della medicina personalizzata. Grazie all’uso avanzato di algoritmi di machine learning e all’estrazione di caratteristiche quantitative da immagini mediche, questa disciplina consente di decodificare informazioni nascoste nelle scansioni radiologiche, offrendo nuove opportunità per la diagnosi, la prognosi e la personalizzazione dei trattamenti.
L’analisi delle immagini mediche tradizionalmente si basa sull’interpretazione visiva da parte dei radiologi, un processo soggettivo che può variare in base all’esperienza del medico. La radiomica, invece, introduce un approccio quantitativo, estraendo automaticamente migliaia di parametri dalle immagini di risonanza magnetica (MRI), tomografia computerizzata (CT), PET e altre modalità. Questi parametri includono informazioni sulla texture, la forma, la dimensione e la distribuzione delle intensità di pixel all’interno della regione di interesse.

L’Intelligenza Artificiale (IA) sta trasformando radicalmente il settore sanitario, specialmente attraverso l’uso di modelli di apprendimento automatico applicati alle serie temporali. Questa evoluzione non solo permette una previsione più accurata della progressione delle malattie, ma fornisce anche supporto decisionale ai clinici, migliora la gestione delle risorse ospedaliere e abilita la personalizzazione dei trattamenti.
L’impatto dell’ia nella sanità: un ecosistema data-driven

L’Arc Institute, un’organizzazione no-profit californiana dedicata allo sviluppo di modelli innovativi di ricerca, ha compiuto un passo cruciale verso la creazione della cellula virtuale, un modello computazionale dettagliato del funzionamento cellulare. In collaborazione con Vevo Therapeutics, l’istituto ha lanciato il 25 febbraio 2025 l’Arc Virtual Cell Atlas, una risorsa rivoluzionaria che raccoglie misurazioni di migliaia di molecole per oltre 300 milioni di cellule.

Microsoft ha recentemente introdotto Dragon Copilot, un assistente AI progettato specificamente per il settore sanitario. Questo sistema combina la tecnologia di riconoscimento vocale di Nuance, acquisita da Microsoft nel 2021, con avanzate capacità di intelligenza artificiale per assistere i professionisti sanitari nella documentazione clinica e in altre attività amministrative.
Dragon Copilot offre diverse funzionalità chiave. Innanzitutto, automatizza la creazione di note cliniche durante le visite, riducendo significativamente il carico amministrativo per i medici e permettendo loro di concentrarsi maggiormente sulla cura del paziente. Inoltre, il sistema supporta la dettatura in linguaggio naturale e la creazione di note multilingue, facilitando la comunicazione in ambienti sanitari diversificati. Tra le altre capacità, Dragon Copilot può generare ordini medici, riassunti clinici e lettere di referral, contribuendo a migliorare l’efficienza operativa all’interno degli studi medici e degli ospedali.

L’intelligenza artificiale sta rivoluzionando la medicina, e una delle sfide più urgenti riguarda le malattie neurodegenerative come l’Alzheimer. Un nuovo modello di AI, sviluppato dai ricercatori dell’Università della California Meridionale e pubblicato sulla rivista dell’Accademia americana delle scienze, PNAS, potrebbe aprire nuove prospettive nella diagnosi precoce e nella prevenzione della demenza.

L’avvento di Evo 2, sviluppato da NVIDIA in collaborazione con Arc Institute e Università di Stanford, rappresenta una svolta epocale nell’applicazione delle architetture di deep learning alla biologia molecolare. Analogamente ai Large Language Models (LLM) come ChatGPT, addestrati su miliardi di testi per generare linguaggio umano, Evo 2 sfrutta una struttura analoga per interpretare e generare sequenze genetiche, aprendo nuovi orizzonti nella ricerca genomica, nella medicina personalizzata e nella progettazione biotecnologica.
La rivoluzione di Evo 2 risiede nel trasferimento dei principi degli LLM al dominio biologico. Mentre ChatGPT analizza correlazioni statistiche tra parole per prevedere sequenze testuali, Evo 2 identifica modelli nei nucleotidi (A, T, C, G) e negli amminoacidi, apprendendo le “regole grammaticali” del codice genetico. Entrambi i modelli utilizzano architetture trasformers basate su meccanismi di attenzione, ma Evo 2 opera su un vocabolario ridotto (4 simboli per il DNA vs. ~50.000 token linguistici) con contesti estremamente lunghi – fino a 1 milione di nucleotidi contro le poche migliaia di token tipici degli LLM.

Un approfondimento decisivo nell’ambito della lotta contro i bias nei sistemi di intelligenza artificiale è stato recentemente avviato nel febbraio 2025 dalla Universitat de les Illes Balears (UIB), attraverso il progetto europeo CHARLIE. Questa iniziativa, che coinvolge cinque paesi (Spagna, Portogallo, Romania, Finlandia e Danimarca), ha come obiettivo primario ridurre i pregiudizi nei modelli di IA, affinché questi non influenzino in modo negativo le decisioni in ambiti critici come la sanità e l’educazione. Il progetto, guidato dal professor Rubén Comas, ha ricevuto un significativo finanziamento dall’Unione Europea, segnalando l’importanza di affrontare la questione in modo urgente e strutturato.

Nel vasto ecosistema del corpo umano, esistono trilioni di virus che coesistono con noi senza causare malattie evidenti. Questi virus, collettivamente noti come “viroma umano”, rappresentano una frontiera scientifica ancora poco esplorata. Per colmare questa lacuna, il National Institutes of Health (NIH) ha lanciato l’ambizioso “Human Virome Program” (HVP), con l’obiettivo di mappare e caratterizzare questi virus “innocui” e comprendere il loro ruolo nella salute umana.
Un elemento chiave di questo programma è l’integrazione dell’intelligenza artificiale (IA) nelle ricerche. I ricercatori prevedono di raccogliere campioni da migliaia di volontari nel corso di quest’anno, utilizzando l’IA per analizzare e identificare i virus presenti nei campioni. Questa metodologia avanzata consente di elaborare enormi quantità di dati genomici, facilitando l’identificazione di virus precedentemente sconosciuti e la comprensione delle loro interazioni con l’organismo umano.

Nel panorama della diagnostica oncologica, una nuova innovazione promette di trasformare radicalmente lo screening e la gestione del cancro alla prostata. EDX Medical Group, con sede al Cambridge Science Park, ha sviluppato un test avanzato che combina l’intelligenza artificiale (IA) con l’analisi di oltre 100 biomarcatori presenti in campioni di sangue e urina. Questo “supertest” mira a fornire una valutazione completa del rischio individuale, a rilevare la presenza del cancro alla prostata e a determinarne lo stadio, superando le limitazioni dei test attuali come il PSA (antigene prostatico specifico).
Il test sfrutta algoritmi di IA per analizzare una vasta gamma di geni e proteine clinicamente validati, associati al cancro alla prostata. Questa metodologia integrata consente una diagnosi con un’accuratezza fino al 96%, distinguendo tra forme aggressive e meno aggressive della malattia. Sir Chris Hoy, il campione olimpico di ciclismo che ha recentemente rivelato la sua battaglia contro un cancro alla prostata terminale, ha elogiato questo sviluppo, sottolineando la necessità di metodi di screening più precisi e affidabili.