CNN L’Intelligenza Artificiale doveva essere la bacchetta magica per la Food and Drug Administration (FDA), l’agenzia americana che regola farmaci e dispositivi medici. Un’accelerazione delle approvazioni, una svolta epocale nel processo di controllo e validazione, una marcia in più nel contrasto alle inefficienze burocratiche. Ma invece di una rivoluzione, l’AI “Elsa” si sta rivelando un flop clamoroso, una fonte di “allucinazioni” digitali che citano studi inesistenti, travisano dati scientifici e perdono il contatto con la realtà, come hanno raccontato impiegati FDA a CNN. Un fallimento che vale più di una beffa, soprattutto per chi ha scommesso sull’AI come panacea.

Quando l’Intelligenza Artificiale diventa “hallucinator”

Il concetto di AI “hallucinante” non è una novità. Nei modelli di linguaggio, specie quelli basati su grandi dataset, la creatività digitale può degenerare in “confabulazione”: l’algoritmo inventa informazioni plausibili ma inesistenti. Elsa, però, non è un chatbot da social network. È uno strumento che dovrebbe accelerare processi complessi, come l’approvazione di nuovi farmaci, basandosi su dati solidi. Invece, riporta studi fantasma e travisa ricerche, producendo risposte tanto autorevoli quanto infondate. Questa situazione fa venire il dubbio che, più che una rivoluzione, stiamo assistendo a un’illusione tecnologica.

L’ironia amara di un’AI che perde documenti cruciali

Non è solo questione di creatività esagerata: Elsa pare incapace di accedere a documenti essenziali per il suo lavoro. Se pensiamo a un sistema AI come a un motore di ricerca iper-specializzato, allora immaginiamo un errore catastrofico. La lentezza burocratica della FDA non è certo una sorpresa, ma affidare un ruolo centrale a un sistema che spreca tempo prezioso del personale, invece di alleggerirlo, sembra un controsenso da libro.

L’annuncio trionfale di Robert F. Kennedy Jr. sull’“AI revolution” a questo punto suona quasi come un “pesce d’aprile” fuori stagione. La promessa di rivoluzionare il processo di approvazione dei farmaci si scontra con la realtà di un modello che sbaglia studi e confonde dati. È una fotografia perfetta della gap tra hype tecnologico e applicazioni pratiche.

Le implicazioni di un fallimento così plateale superano il semplice imbarazzo. L’AI dovrebbe essere uno strumento che riduce rischi, aumenta efficienza e migliora la sicurezza dei prodotti farmaceutici sul mercato. Invece, in questa fase, rischia di essere un ostacolo. Come se una Ferrari da corsa si inceppasse alle prime curve. O, se preferite, un esperto CEO che si fa sorprendere da Excel.

Nella narrazione tecnologica odierna, troppe volte l’Intelligenza Artificiale viene presentata come un deus ex machina, capace di risolvere problemi complessi con un semplice click. Ma dietro la patina di innovazione si nascondono sfide reali e insidie notevoli, soprattutto quando la qualità dei dati e la verifica umana restano imprescindibili. Elsa ne è una testimonianza vivente.

Nel frattempo, i dipendenti FDA sono costretti a fare i conti con un assistente digitale che si dimostra più un problema che una soluzione. Un paradosso emblematico che, al netto di annunci roboanti, richiama a un pragmatismo necessario: la tecnologia deve servire l’uomo, non farlo impazzire. Lo dico da CTO e CEO, non da apologeta della Silicon Valley.

Se la FDA vuole davvero guidare la rivoluzione AI in campo farmaceutico, deve mettere al centro la qualità e la trasparenza, non la velocità a tutti i costi. Perché se Elsa continua a “hallucinare”, il rischio è di far perdere fiducia a chi la innovazione dovrebbe beneficiarne. D’altronde, il progresso tecnologico non è una corsa, ma una maratona in cui ogni passo deve essere solido, non frutto di fantasie digitali.

A chi pensa che questa vicenda sia un intoppo passeggero, ricordo che il mercato farmaceutico globale vale trilioni, e un errore sistemico può tradursi in danni incalcolabili. L’AI deve imparare a camminare prima di volare, o rischia di cadere rovinosamente, trascinando con sé un’intera industria.

La tecnologia, quindi, non è una bacchetta magica, e l’Intelligenza Artificiale non deve trasformarsi in un “allucinogeno digitale”. Scommettere sul futuro significa anche essere capaci di riconoscere i limiti attuali, per costruire un domani credibile, e non un castello di sabbia digitale.