el backstage high-tech di Washington, dove algoritmi e lobbying si incontrano a porte chiuse, qualcosa di interessante — e inquietante — sta bollendo in pentola. La U.S. Food and Drug Administration, un organismo storicamente noto per la sua lentezza pachidermica nel valutare farmaci, sta flirtando con l’AI. Non un’AI qualsiasi: OpenAI, la creatura (ora semidomata da Microsoft) che ha portato ChatGPT nel mondo, è finita in colloqui ripetuti con la FDA, secondo fonti di Wired. E no, non si tratta solo di “esplorare possibilità”: si parla già di un progetto pilota con tanto di acronimo evocativo cderGPT e il coinvolgimento diretto del primo AI officer della FDA, Jeremy Walsh.

Partiamo dall’inizio, o meglio, da metà: nessuno nella stampa generalista ne ha parlato seriamente, eppure le implicazioni sono enormi. Il cderGPT — abbreviazione per Center for Drug Evaluation and Research GPT — è un’iniziativa che, almeno sulla carta, punta a trasformare radicalmente il modo in cui la FDA valuta i farmaci da banco e quelli da prescrizione. Attualmente, portare un nuovo principio attivo sul mercato richiede una decade e miliardi di dollari in trafile regolatorie, test clinici e revisioni burocratiche. Il post di Marty Makary, attuale commissioner della FDA, è più che un indizio: “Abbiamo appena completato la nostra prima revisione scientifica assistita da AI per un prodotto, ed è solo l’inizio”. Non è marketing, è un proclama.

Chi ha un po’ di memoria tecnologica, non può non notare una dinamica inquietante: Musk, che di recente ha dato vita al dipartimento per l’Efficienza del Governo (una sorta di crociata contro l’inefficienza pubblica, condita di tecnocrazia libertariana), è indirettamente coinvolto. Due suoi associati avrebbero partecipato agli incontri. Questo intreccio tra innovazione privata, enti pubblici e visioni transumaniste fa subito pensare a uno scenario in stile “Silicon Valley meets Deep State”, in cui la neutralità dell’ente regolatore diventa una variabile trattabile a seconda dell’intelligenza artificiale che gli si affianca.

Da un punto di vista tecnico, l’idea che un modello generativo come quelli sviluppati da OpenAI possa automatizzare o almeno accelerare – la revisione di dati clinici, studi randomizzati e report di sicurezza è plausibile. Il machine learning si presta bene all’identificazione di pattern nei big data medici, e i LLM sono già stati testati con buoni risultati per generare sintesi di studi clinici e analisi comparative. Ma tra la plausibilità tecnica e la fiducia epistemologica ce ne passa. Affidare (anche parzialmente) il giudizio sull’efficacia e la sicurezza di un farmaco a un modello predittivo addestrato su dati storici significa modificare radicalmente il concetto di “evidenza scientifica”. Vuol dire trasformare l’atto regolatorio da una valutazione umana a una probabilistica, da una decisione a una previsione.

E Microsoft? Non è uno spettatore passivo. Con una partecipazione in OpenAI da miliardi, Redmond ha tutto l’interesse a vedere i modelli GPT penetrare settori ad alta regolamentazione come quello farmaceutico. Perché? Perché sono quelli dove i margini sono più alti e l’inerzia più ostica: chi riesce a rompere l’inerzia, vince. Il vantaggio competitivo non sarà solo tecnologico, ma anche geopolitico e normativo. In altre parole, Microsoft non vuole solo “vendere AI”, vuole ridefinire come il mondo prende decisioni critiche.

Se confermato, l’accordo FDA OpenAI sarebbe un precedente epocale. Si tratta, di fatto, del primo passo verso una burocrazia farmaceutica aumentata, dove il regolatore cede parte del suo ruolo decisionale a un algoritmo. Tutto questo senza un vero dibattito pubblico, senza linee guida trasparenti e va detto – senza alcuna chiarezza sui dataset, sui bias, o sull’accountability dell’intelligenza artificiale impiegata.

Ma il vero punto non è se la FDA debba usare AI. Il punto è chi controlla quell’intelligenza artificiale. Se i modelli sono black box privati, ottimizzati da un gruppo ristretto di aziende con interessi commerciali (farmaceutici inclusi), la domanda non è se ci sarà un conflitto di interesse, ma quando e quanto sarà grave. Se invece l’infrastruttura AI fosse aperta, trasparente, validabile da enti terzi, potremmo parlare di innovazione reale e regolamentata.

Per ora siamo nel territorio del potere opaco: algoritmi che decidono, manager che approvano, e cittadini che come sempre sapranno tutto solo a giochi fatti.

Link alla notizia su Wired (se disponibile)