I regolatori EMA e FDA hanno smesso di parlarsi per corridoi riservati e hanno deciso di pubblicare un documento congiunto, mettendo nero su bianco dieci principi condivisi per l’uso dell’intelligenza artificiale nel ciclo di vita del farmaco. Non è una dichiarazione di intenti da convegno, ma una mossa difensiva e offensiva insieme. Difensiva perché negli ultimi anni le autorità si sono viste recapitare dossier pieni di promesse algoritmiche e poveri di prove. Offensiva perché chi governa la regolazione sa che l’intelligenza artificiale farmaceutica non è più un esperimento da laboratorio, ma una leva industriale che può comprimere tempi, costi e rischi, se gestita con disciplina.

Il contesto è noto a chiunque abbia letto anche solo una richiesta di autorizzazione negli ultimi due anni. L’IA nello sviluppo dei farmaci viene usata ovunque, dalla selezione dei target molecolari alla progettazione delle sperimentazioni cliniche, dall’ottimizzazione dei processi produttivi fino alla farmacovigilanza post-marketing. Il problema non è l’adozione, ma la narrazione. Troppo spesso l’intelligenza artificiale viene evocata come un talismano, una parola magica che dovrebbe compensare dati fragili, modelli opachi e governance improvvisata. Quando questo accade in un contesto dove in gioco ci sono pazienti reali e decisioni regolatorie, la reazione è inevitabile.

I dieci principi EMA-FDA partono da un punto che molti CEO fingono di ignorare. L’ambito di applicazione non è ristretto a una singola fase. Copre l’intero ciclo di vita del farmaco, dalla ricerca preclinica alla produzione industriale, fino alla generazione e al monitoraggio delle prove di sicurezza dopo l’immissione in commercio. Questo significa che l’IA non viene più valutata come un modulo isolato, ma come una componente sistemica del processo regolato. È una differenza sottile ma cruciale. Se il modello influenza decisioni cliniche o produttive, allora entra a pieno titolo nel perimetro della responsabilità regolatoria.

Il secondo elemento chiave è l’approccio basato sul rischio. Concetto familiare a chi lavora con dispositivi medici, ma che ora viene esteso in modo esplicito all’intelligenza artificiale farmaceutica. Più alto è il rischio associato all’uso dell’IA, più stringenti devono essere validazione, supervisione e controlli. Tradotto in linguaggio non diplomatico, non tutte le reti neurali sono uguali. Un algoritmo che suggerisce priorità di screening non è la stessa cosa di un modello che influenza decisioni cliniche o segnali di sicurezza. La regolazione non demonizza l’innovazione, ma chiede proporzionalità e rigore. Un concetto banale, reso necessario da un eccesso di storytelling tecnologico.

La documentazione è il punto dove molte illusioni si infrangono. EMA e FDA sono sorprendentemente dirette quando parlano di governance dei dati, tracciabilità e contesto d’uso. Non basta dichiarare che si usa l’intelligenza artificiale. Bisogna dimostrare come, con quali dati, con quali assunzioni e per quali limiti. Il contesto d’uso non è una nota a piè di pagina, ma il perimetro entro cui il modello è valido. Chi ha mai visto un’autorità regolatoria respingere un dossier sa che spesso il problema non è l’assenza di tecnologia, ma l’assenza di disciplina. L’IA non fa eccezione, anzi amplifica il problema.

Il quarto dettaglio, apparentemente tecnico, è in realtà il più politico. Il ciclo di vita dell’IA include il monitoraggio della deriva. I regolatori partono dal presupposto che i modelli cambino nel mondo reale. Non è una concessione all’innovazione, è un’ammissione di realtà. I dati evolvono, i comportamenti cambiano, le distribuzioni statistiche non restano ferme. Questo significa che l’approvazione non è più un evento puntuale, ma l’inizio di una sorveglianza continua. Chi pensava di addestrare un modello una volta e poi dimenticarsene dovrà aggiornare non solo il software, ma anche la propria cultura organizzativa.

Il parallelo con la regolamentazione dell’intelligenza artificiale nei dispositivi medici non è casuale. Anche lì i requisiti sono stati definiti prima che la tecnologia esplodesse del tutto. Il risultato è stato un ecosistema meno anarchico e più prevedibile. Nel caso dell’IA nello sviluppo dei farmaci, la prevedibilità è un asset strategico. Sapere che le aspettative di EMA e FDA sono allineate riduce la necessità di rielaborazioni transfrontaliere, abbassa i costi di compliance duplicata e accelera i processi di approvazione. In un settore dove il tempo equivale a miliardi, non è un dettaglio.

C’è però l’altra faccia della medaglia, e qui conviene essere cinici. Più principi significa più attività di conformità. Più documentazione, più audit, più ruoli dedicati a spiegare agli auditor cosa fa davvero l’algoritmo. E soprattutto più dichiarazioni di allineamento. Ogni azienda affermerà di rispettare i principi di buona pratica dell’intelligenza artificiale farmaceutica. La vera selezione naturale avverrà quando questi principi verranno tradotti in linee guida operative e poi in requisiti applicati nei dossier regolatori. È lì che si capirà chi ha costruito sistemi robusti e chi ha semplicemente aggiunto una patina di IA a processi tradizionali.

La dichiarazione del Commissario europeo Olivér Várhelyi è interessante non tanto per il linguaggio istituzionale, quanto per ciò che sottintende. Preservare la sicurezza dei pazienti e accelerare l’accesso ai farmaci non sono obiettivi in conflitto se l’intelligenza artificiale viene governata bene. Se viene governata male, invece, accelera solo l’accesso ai problemi. La cooperazione UE-USA su questo fronte è anche un messaggio geopolitico. L’innovazione regolata diventa un fattore di competitività globale, soprattutto mentre altri attori puntano su modelli meno trasparenti e più opachi.

Il riferimento al Biotech Act europeo e alla nuova legislazione farmaceutica chiarisce che questi principi non vivono nel vuoto. Si inseriscono in un quadro normativo che riconosce all’IA un ruolo strutturale nel decision making regolatorio. Allo stesso tempo, creano spazi controllati per testare metodi innovativi basati su intelligenza artificiale. È un equilibrio delicato, che richiede competenze che vanno oltre il diritto e l’informatica. Serve una leadership capace di capire che la compliance non è un freno all’innovazione, ma una forma di ingegneria del rischio.

Chi guida oggi un’azienda farmaceutica o biotech dovrebbe leggere questo documento non come un obbligo, ma come una mappa. L’intelligenza artificiale nello sviluppo dei farmaci non sarà più valutata solo per la sua performance, ma per la sua affidabilità operativa, la sua spiegabilità contestuale e la sua capacità di adattarsi senza diventare incontrollabile. È una sfida tecnica, organizzativa e culturale. E come spesso accade, non vince chi ha il modello più grande, ma chi ha il governo più solido.

C’è infine un aspetto quasi ironico. Per anni si è detto che l’IA avrebbe messo in crisi i regolatori, rendendoli lenti e obsoleti. Oggi sono proprio i regolatori a ricordare all’industria che l’innovazione senza metodo è solo improvvisazione costosa. EMA e FDA non stanno frenando l’intelligenza artificiale farmaceutica. Stanno facendo qualcosa di più sofisticato. La stanno costringendo a diventare adulta. E per un settore che vive di promesse scientifiche e aspettative di mercato, è probabilmente la notizia più rilevante di questo inizio 2026.