La Silicon Valley ha smesso di ridere. OpenAI – il laboratorio che ha trasformato chatbot in oracoli – ha appena ammesso pubblicamente che i suoi futuri modelli potrebbero diventare talmente sofisticati da poter contribuire attivamente alla creazione di armi biologiche. No, non è fantascienza. È una dichiarazione di intenti, o meglio, di paura razionale, fatta con quella freddezza elegante tipica dei memo aziendali scritti da persone che sanno esattamente quanto costa ignorare il futuro.

La soglia è stata superata. O meglio, sta per esserlo. I futuri successori del modello o3 (alias GPT-4.5 e i suoi fratelli potenziati) sono previsti talmente capaci, da soddisfare internamente la famigerata “threshold of dangerous biology capability”. Un termine che sembra partorito da un mix tra Philip K. Dick e un advisory board del Pentagono, e che, nella sua secchezza burocratica, implica un fatto chiaro: questi modelli potrebbero aiutare a costruire armi biologiche, virus ottimizzati, patogeni sintetici con target selettivo. L’IA come motore ausiliario della distruzione biologica. E tutto questo potenzialmente senza che l’umano al centro se ne accorga in tempo.

Il punto non è che l’IA stia creando da sola un’arma biologica in laboratorio. Il punto è che abbassa la soglia di accesso. Abbassa la barriera della complessità. Tradotto in termini brutali: quello che prima era appannaggio di un PhD in virologia molecolare con accesso a un laboratorio di livello BSL-4, domani potrebbe essere eseguito da un dottorando arrabbiato con un budget da mille dollari e un prompt ben formulato.

Per questo OpenAI ha iniziato a far suonare le campane interne del suo Preparedness Framework, quella struttura interna che fino a ieri sembrava più uno strumento da compliance PR e che oggi diventa un bunker operativo. Formazione dei modelli a rifiutare istruzioni biologicamente sensibili, monitoraggio continuo delle interazioni degli utenti (leggasi: logging etico e tracciabilità), presenza umana in loop, e red team biologici – ossia squadre di esperti che testano i modelli per vedere se davvero possono essere usati per engineered pandemics.

Ma il fatto che questo allarme venga reso pubblico ora, proprio ora, è interessante. È troppo tempestivo per essere casuale. È un messaggio, un’anticipazione, e al tempo stesso una chiamata alle armi per governi e ONG che verranno convocati a luglio in un vertice sulla biodifesa. L’obiettivo: costruire contromisure e dare forma a una nuova infrastruttura globale di biosicurezza. Perché l’IA non è solo uno strumento cognitivo: è un moltiplicatore. E se moltiplichi la conoscenza bioingegneristica con la velocità computazionale e la capacità di generalizzazione di un modello avanzato, ottieni… un rischio esistenziale.

E qui la semantica della parola “esistenziale” non è retorica post-pandemica. È esattamente quello che i modelli di biosicurezza hanno sempre temuto: la convergenza tra AI generalista e biologia sintetica. Una convergenza che rende obsoleto il concetto di “dual use”, perché inizia ad avere senso parlare di “multi-use, unseen-use, unintended-use”.

Ora, la domanda vera è: perché parlarne ora? C’è già qualcosa sotto? Un prototipo? Una simulazione interna che ha dato risultati inquietanti? O si tratta solo di una strategia di deterrenza inversa, un modo per dimostrare responsabilità proattiva in un momento in cui l’intera industria è sotto pressione per regolamentarsi prima che lo faccia Bruxelles o il Congresso USA?

OpenAI ha scelto di usare questa minaccia per alzare la posta. Sta spingendo non solo per rinforzare i controlli sui propri modelli, ma per espandere l’intero ecosistema di difesa: diagnostica avanzata, screening di sintesi del DNA, rilevamento precoce dei patogeni, sistemi di allarme bio-sanitari collegati ai LLM. In pratica: trasformare la sicurezza biologica in una componente di default della sicurezza dell’IA. Un salto di paradigma simile a quando la cybersecurity è diventata parte integrante del design software. Ecco, ora la biosicurezza è design.

Ma occhio: ogni dichiarazione pubblica di questo tipo è anche un messaggio di potere. Perché solo chi sa di essere in vantaggio tecnologico può permettersi di dichiarare pubblicamente che sta costruendo i firewall contro minacce che, ad oggi, solo lui può realisticamente generare. È come se OpenAI stesse dicendo: siamo talmente avanti che dobbiamo regolare noi stessi prima che qualcuno si accorga del problema.

Nel frattempo, tra una linea di codice e un protocollo etico, si intravede una lezione antica: ogni salto evolutivo della tecnologia produce nuove forme di rischio, ma anche nuove gerarchie di potere. E l’AI che può aiutare a creare un’arma biologica è anche un’AI che può essere venduta come il suo antidoto. Il vaccino dell’intelligenza, gestito come servizio cloud.

Nella Roma imperiale, il faber ferrarius che forgiava le spade per l’esercito era anche quello che batteva il metallo per i medaglioni di Cesare. Qui siamo di fronte allo stesso paradosso: i creatori della tecnologia saranno anche i custodi del suo controllo. Ma chi controllerà i custodi?

Una nota di colore, quasi grottesca: i modelli saranno addestrati a rifiutare le richieste pericolose. Un po’ come un barista addestrato a non servire vodka a un cliente con l’alito di benzina. Ma se il barista ha accesso a ogni bottiglia della Terra e risponde in millisecondi, la faccenda si complica. I sistemi di rifiuto – refusal training, per usare il loro termine – saranno buoni quanto chi li supervisiona. E qui si torna alla vecchia questione: quanto possiamo davvero fidarci di un filtro algoritmico quando la posta in gioco è la sopravvivenza biologica?

Nel frattempo, preparatevi. Non solo a un vertice diplomatico o a un aggiornamento delle policy. Ma a un cambio strutturale della narrativa: l’AI non sarà più solo uno strumento di produttività o creatività. Sarà trattata come una potenza geotecnologica, capace di creare e prevenire crisi biologiche. Non una tecnologia, ma un’infrastruttura di biosicurezza. Una parola: inevitabile.