Contrariamente alle preoccupazioni di molti, l’intelligenza artificiale (IA) può rappresentare un motore di progresso per la ricerca biologica e la biotecnologia. L’idea che l’IA possa amplificare i rischi connessi all’abuso di biotecnologie per la creazione e la diffusione di patogeni, fomentando il bioterrorismo, trascura tre aspetti fondamentali. In primo luogo, l’IA, come gli esseri umani, richiede l’accesso ai dati per poter operare.

In secondo luogo, le politiche governative sono volte a prevenire l’uso malevolo della biotecnologia, monitorando le attività sospette.

In terzo luogo, vista la frequente inaffidabilità dei grandi modelli di linguaggio (LLM) e il rischio di generare informazioni non corrette, qualsiasi IA dedicata a fornire consulenze in biotecnologia necessiterà della supervisione di un professionista.

Invece, l’IA ha il potenziale di essere propulsiva per la ricerca biologica e la biotecnologia, con la promessa che le scoperte in questo campo possano a loro volta stimolare nuovi sviluppi nell’ambito dell’IA a vantaggio dell’intera umanità.

È essenziale che i leader dei settori privato e pubblico agiscano con decisione nel breve periodo per stabilire le condizioni favorevoli all’ottimizzazione dei benefici offerti dall’IA e dalla biotecnologia. L’attenzione a livello nazionale e internazionale dovrebbe spostarsi verso strategie condivise di gestione dei dati e verso l’implementazione di metodologie formative appropriate per i modelli di IA applicati ai sistemi biologici.

IL PROGETTO RED CELL


Il Red Cell era una piccola unità creata dalla CIA dopo l’11 settembre per garantire che il fallimento analitico nel non prevedere gli attacchi non si ripetesse mai più. Produceva brevi relazioni destinate a stimolare un pensiero fuori dagli schemi su assunzioni errate e percezioni sbagliate sul mondo, incoraggiando un pensiero strategico alternativo. In un altro momento cruciale di crescente incertezza, questo progetto è inteso come una versione open source, utilizzando un formato simile per mettere in discussione mappe mentali superate ed esercitare una “empatia strategica” per discernere le motivazioni e i vincoli di altri attori globali, migliorando la possibilità di strategie più efficaci.

L’intelligenza artificiale (IA) e la ricerca biologica: presagi di rovina o di straordinarie opportunità?


Contrariamente alla convinzione diffusa che l’intelligenza artificiale porterà inesorabilmente a un incremento dei rischi di abusi in biotecnologia per generare patogeni e promuovere il bioterrorismo, l’IA si pone come catalizzatore per il progresso della ricerca biologica e biotecnologica, potenziando la prossima generazione di innovazioni a favore dell’umanità. Le apprensioni relative all’abuso delle biotecnologie sono così acute che l’amministrazione Biden ha recentemente delineato linee guida specifiche per il settore, cercando di mitigare i timori in aumento.


La visione apocalittica che l’IA possa generare nuovi patogeni pericolosi e alimentare il bioterrorismo trascura alcuni aspetti fondamentali. In primis, perché l’IA possa operare, occorre che i dati siano disponibili; le performance dei sistemi di IA dipendono dalla qualità dei dati su cui sono addestrati. Affinché l’IA venga addestrata con dati biologici, questi ultimi devono essere preesistenti e quindi accessibili anche all’uomo, con o senza l’ausilio dell’IA.

Inoltre, le strategie volte a limitare l’accesso ai dati non considerano che le informazioni biologiche possono essere scoperte e condivise dai ricercatori in modalità criptate, eludendo i controlli governativi. Nessun approccio per contrastare l’uso improprio della ricerca biologica nell’elaborazione di patogeni pericolosi o armi biologiche può basarsi esclusivamente sul controllo dell’accesso ai dati o all’IA, poiché tali dati, prima o poi, saranno scoperti e resi noti agli specialisti del settore, indipendentemente dal coinvolgimento dell’IA.

Secondariamente, i governi prevengono l’uso malevolo della biotecnologia da parte di soggetti nocivi, monitorando le azioni preliminari che precedono lo sviluppo di armi biologiche; fortunatamente, le medesime strategie sono efficaci anche in questo ambito.

Per ridurre il pericolo che agenti dannosi — sia essi individui o sinergie di umani e macchine — abusino dell’intelligenza artificiale e della biotecnologia, è vitale creare sistemi di allerta e segnalazione anticipata.

Quando l’avvento dei motori a vapore ha dato origine a un’inedita categoria di delitti, come le rapine ferroviarie, la risposta non è stata l’abbandono dei motori a vapore o della loro applicazione nel trasporto di denaro e beni di valore. Invece, si è optato per l’adozione di ulteriori perfezionamenti, quali casseforti più resistenti all’effrazione e, in seguito, inchiostri indelebili per marcare le mani e gli indumenti dei ladri. Analoghe innovazioni sono oggi imprescindibili nel settore dell’allerta e del rilevamento precoce nell’ambito dell’IA e della biotecnologia.

Ciò include lo sviluppo di metodi per segnalare reagenti e comportamenti sospetti, nonché soluzioni ingegnose per individuare ricerche biologiche volte a scopi illeciti.

Questo secondo punto è particolarmente importante alla luce dell’Ordine Esecutivo (EO) rilasciato il 30 ottobre 2023, che sollecita le agenzie e i dipartimenti statunitensi finanziatori di progetti scientifici sulla vita a stabilire nuovi, rigorosi standard per lo screening della sintesi biologica “come condizione per i finanziamenti federali… [per] gestire i rischi potenzialmente aggravati dall’IA”. Spesso, le salvaguardie per assicurare che eventuali ricerche biologiche a doppio uso non siano impiegate in modo scorretto includono un monitoraggio del mondo reale volto a fornire indicatori e avvisi precoci di possibili usi intenzionalmente malevoli.

Tale sforzo dovrebbe coinvolgere il monitoraggio dei primi segnali di possibili abusi allo stesso modo in cui i governi applicano il monitoraggio per impedire ai malintenzionati di utilizzare qualsiasi iniziativa scientifica a doppio scopo. Anche se il recente EO non mira a limitare la ricerca, qualsiasi tentativo di soluzioni che restringano l’accesso ai dati trascura il fatto che i dati biologici possono già essere scoperti e condivisi tramite forme criptate al di là del controllo governativo. Le stesse tecniche usate oggi per rilevare intenzioni malevoli saranno efficaci indipendentemente dall’uso o meno di modelli di linguaggio a grande scala (LLM) e altre forme di IA generativa.

Terzo, vista la frequenza con cui i modelli di linguaggio a grande scala (LLM) e altri sistemi di IA generativa commettono errori e il rischio di generare “allucinazioni” da parte dell’IA, qualsiasi potenziale IA destinata a fornire consigli sulla biotecnologia dovrà essere supervisionata da un esperto umano. Il fatto che un’IA possa generare suggerimenti e formule potenziali — magari anche proponendo formule innovative per nuovi patogeni o materiali biologici — non significa che ciò che l’IA propone abbia basi solide nella scienza effettiva o che faccia ciò che l’IA suggerisce che il materiale progettato potrebbe compiere dal punto di vista biochimico.

Ancora una volta, l’IA da sola non sostituisce la necessità di conoscenze umane per verificare l’accuratezza dei consigli, delle direttive o delle istruzioni relative allo sviluppo biologico.

Inoltre, l’IA non sostituisce il ruolo di vari schemi e indicatori del mondo reale nell’avvisare le forze dell’ordine riguardo ai potenziali criminali impegnati in tecniche biologiche per fini malvagi. Già prima dei progressi nell’IA, era necessario monitorare globalmente i segnali di potenziali minacce biologiche, sia antropogeniche che naturali. Oggi, con l’IA, la necessità di farlo in modi che preservino la privacy, proteggendo al contempo le società, è ancor più evidente.

Avere conoscenze su come realizzare qualcosa non è sinonimo di esperienza e competenza nel compiere quell’azione: occorrono sperimentazione e revisione aggiuntiva.

Le IA da sole possono trasmettere informazioni che possono favorire nuove conoscenze, ma non possono acquisire esperienza senza mesi di lavoro umano per condurre esperimenti in silico (al computer) o in situ (nel luogo originale). Inoltre, per i governi che vogliono fermare le IA malevoli con informazioni potenzialmente generatrici di armi biologiche, la soluzione può includere l’introduzione di incertezza nella affidabilità degli output di un sistema IA. L’avvelenamento dei dati può rappresentare un rischio reale per qualsiasi sistema, sia per cause accidentali che intenzionali.

È qui che l’IA e la biotecnologia possono trarre il maggior beneficio. In particolare, possono identificare indicatori e avvisi per rilevare patogeni pericolosi, nonché individuare vulnerabilità nella produzione alimentare globale e nelle interruzioni correlate ai cambiamenti climatici, rendendo i sistemi globali interconnessi più resilienti e sostenibili. Un tale approccio non richiederebbe una vasta collaborazione intergovernativa prima che i ricercatori possano iniziare; basterebbero approcci che preservano la privacy utilizzando dati economici, dati aggregati (e anonimizzati) sulla catena di approvvigionamento e persino osservazioni generali dallo spazio per cominciare oggi.

Perché le comunità dovrebbero preoccuparsi di come l’IA può far avanzare la ricerca biologica — e come la biologia può alimentare la prossima ondata di IA.


Tralasciando le preoccupazioni potenziali riguardanti l’uso dell’IA per fini malevoli, l’intersezione tra biologia e scienza dei dati è un aspetto sottovalutato degli ultimi due decenni. Almeno due vaccini contro il COVID-19 sono stati progettati al computer — e poi i nucleotidi sono stati sintetizzati tramite una stampante a mRNA. Senza questa tecnologia, avremmo potuto attendere altri due o tre anni prima che gli stessi vaccini fossero sviluppati. Ancora più sorprendente, le stampanti di nucleotidi costano attualmente solo 500.000 dollari e presumibilmente diventeranno meno costose e più robuste nelle loro capacità nei prossimi anni.

L’IA può beneficiare la ricerca biologica e la biotecnologia, purché vengano adottati gli approcci di formazione corretti per i modelli di IA. Per evitare rischi negativi, è imperativo adottare nuovi approcci collettivi alla cura dei dati e alla formazione per i modelli di IA dei sistemi biologici nei prossimi anni.

Come già accennato, si è prestata molta attenzione sia all’IA che ai progressi nella ricerca biologica; alcuni di questi progressi si basano su solidi fondamenti scientifici, altri sono guidati più dall’entusiasmo emotivo o dalla paura.

Nel costruire una solida base per un futuro basato su valori e principi che supportino e proteggano tutte le persone e il pianeta, né la scienza né le emozioni da sole possono essere guida. Invece, considerare come progetti che coinvolgono biologia e IA possano costruire e mantenere la fiducia — nonostante le sfide sia della disinformazione intenzionale che dell’informazione errata per errore — può mostrare un percorso positivo per il futuro.

Le preoccupazioni sul potenziale dell’IA e della biologia di essere usate per scopi malevoli non dovrebbero eclissare le attuali conversazioni sull’impiego delle tecnologie per affrontare questioni importanti a livello regionale e globale.

In tempi recenti, l’attenzione si è concentrata sui pericoli derivanti dall’uso di sistemi di intelligenza artificiale (IA) nella formazione di neofiti nella creazione di patogeni biologici. Tale preoccupazione tuttavia trascura che i sistemi di IA sono efficaci solo se addestrati con set di dati accurati e che la minaccia preesisteva già prima della loro diffusione su Internet o altri canali. Inoltre, l’esperienza e la competenza richieste per sfruttare tali informazioni non possono essere apprese soltanto da un’IA, ma derivano da un’istruzione pratica nel mondo reale. La pratica costante implica l’uso di reagenti, che potrebbe segnalare le attività alle autorità competenti, e la produzione di segnali rivelatori di preparazione di atti illeciti.

Alcuni hanno espresso timori che un sistema di IA possa contribuire a progettare patogeni più mortali, ma la complessità delle interazioni biologiche e il rischio di risposte errate da parte di IA generative, come sottolineato nella parte conclusiva di questo articolo, riducono la probabilità di tale pericolo. Il rischio maggiore è rappresentato piuttosto da gruppi di esperti umani che collaborano tra diverse discipline con intenti malevoli. Queste considerazioni, e l’atteggiamento ambivalente di allarmismo e timore che le accompagna, evidenziano l’importanza di comprendere come l’IA possa supportare la ricerca biologica.

COME SI PUÒ COSTRUIRE UN FONDAMENTO SOLIDO PER L’IA E LA BIOLOGIA NEL PROSSIMO VENTENNIO? La convergenza tra dati e bioscienze è fondamentale nella rivoluzione tecnologica attuale. Un’organizzazione umana, con obiettivi e incentivi appropriati, può raggiungere traguardi etici significativi, come può fare un’IA. Al contrario, obiettivi o incentivi inadeguati possono portare a comportamenti eticamente discutibili sia in organizzazioni umane sia in sistemi di IA. Per rispondere a sfide quali i cambiamenti climatici, la sicurezza alimentare e la sostenibilità, è essenziale l’impiego di IA e ricerca biologica. Esempi di applicazioni già esistenti includono l’uso di batteri computazionali per ridurre l’emissione di metano e incrementare la fertilità del suolo, affrontando così problemi ambientali e migliorando la produttività agricola.

Non dovremmo permettere che le preoccupazioni sull’uso malevolo di IA e biologia oscurino il potenziale di queste tecnologie nel risolvere questioni critiche a livello regionale e globale. La competizione internazionale Genetically Engineered Machine (iGEM) potrebbe essere un’opportunità per promuovere l’utilizzo etico di queste tecnologie. Espandendo iGEM per includere un focus sulle applicazioni positive della biologia sintetica e lavorando con i governi per prevenire usi dannosi, si potrebbero compiere passi importanti in avanti.

Per quanto riguarda l’IA, quando si tratta di governance, è essenziale considerare gli incentivi e i disincentivi per le organizzazioni umane. Il Test di Turing, proposto dal pioniere dell’informatica Alan Turing, potrebbe non essere più adeguato per valutare la fiducia nelle IA. Invece, dovremmo concentrarci sulla fiducia nella capacità dell’IA di agire non solo in modo programmato, ma anche in maniera etica e responsabile. Ciò richiede uno sforzo congiunto da parte dei produttori, degli utenti e dei regolatori di IA per promuovere principi etici e costruire fiducia nell’interazione con queste tecnologie. La fiducia reciproca tra chi sviluppa IA, chi le utilizza e il pubblico è cruciale per l’accettazione e l’adozione diffusa dell’IA nei prossimi anni.