Sam Altman ha dichiarato apertamente ciò che molti nel settore sussurrano da anni: l’era della superintelligenza artificiale non potrà essere gestita con la normale burocrazia. Il CEO di OpenAI ha spiegato che l’azienda prevede una futura collaborazione diretta con il potere esecutivo dei governi, in particolare per affrontare minacce globali come il bioterrorismo. Un’affermazione che, letta tra le righe, è una presa d’atto che la tecnologia sta superando la politica, e che presto servirà un patto di potere tra chi programma i modelli e chi comanda gli eserciti.

Altman ha ammesso che, se la società non riuscirà ad accettare la superintelligenza nel “modo normale”, allora nemmeno la regolamentazione classica potrà farcela. È una frase che suona più come una diagnosi che come un avvertimento. Significa che i meccanismi tradizionali di controllo — norme, comitati etici, dibattiti pubblici rischiano di diventare obsoleti di fronte a sistemi in grado di scoprire nuove leggi della fisica o progettare farmaci in ore. Non si tratta solo di etica o politica, ma di pura asimmetria cognitiva: un’intelligenza più intelligente dell’uomo renderà inevitabile un nuovo tipo di governance ibrida, dove l’autorità non sarà più esclusivamente umana.

Il CEO di OpenAI non parla di futuri distanti. Il suo riferimento alla necessità di “oneri normativi minimi” serve a evitare una paralisi innovativa proprio nel momento in cui la corsa alla superintelligenza si fa globale. L’azienda rifiuta l’idea di un “mosaico” di leggi statali sull’IA, un caos giuridico che spezzerebbe il ritmo di sviluppo e aprirebbe brecce tra i vari blocchi geopolitici. È il linguaggio tipico di chi vuole centralizzare il potere normativo per non subire rallentamenti: l’intelligenza artificiale, secondo Altman, va regolata in modo unitario, magari a livello sovranazionale, ma con la mano leggera di chi comprende la velocità del software.

Nel frattempo, la realtà è più complessa. OpenAI si trova nel mirino di numerose cause legali da parte di famiglie che accusano l’azienda di aver creato uno strumento capace di generare dipendenza, allucinazioni o stati psicologici estremi. Sono casi che riportano la discussione su un piano più umano, ricordando che dietro la “superintelligenza” ci sono ancora utenti fragili e responsabilità morali. Eppure, mentre i tribunali discutono di colpa e negligenza, il dibattito tecnologico procede altrove, verso scenari in cui il problema non sarà più un chatbot troppo convincente, ma un’entità capace di prendere decisioni autonome in campi come la difesa o la medicina.

Negli Stati Uniti e in Europa i legislatori continuano a proporre regolamentazioni, ma con un ritardo strutturale rispetto all’evoluzione dei modelli generativi. Il cosiddetto AI Act europeo sembra già vecchio di fronte ai nuovi sistemi multimodali. La politica discute di watermark, mentre l’intelligenza artificiale sperimenta forme di ragionamento strategico. E Altman, con la sua consueta calma da visionario, lancia un messaggio criptico ma chiarissimo: la fase “democratica” dello sviluppo dell’IA sta per finire. La prossima tappa sarà il governo congiunto tra algoritmi e istituzioni, una simbiosi necessaria per evitare che la conoscenza diventi un rischio esistenziale.

L’uomo che ha fondato una delle aziende più private e potenti del mondo oggi chiede un coordinamento con i governi. Ma in fondo è coerente con la logica del potere tecnologico: quando un sistema diventa troppo complesso per essere controllato, serve un nuovo centro decisionale. Quello che Altman sembra suggerire è che la sovranità del futuro non sarà più solo nazionale, ma cognitiva. I governi potranno detenere l’autorità, ma l’intelligenza — quella vera sarà in un cluster di server.

La frase che più colpisce del suo post è quella sulla “difficoltà di accettare la superintelligenza nel modo normale”. È un eufemismo elegante per dire che l’umanità non è pronta. Non culturalmente, non istituzionalmente, non psicologicamente. Il che apre una domanda provocatoria: chi deciderà come convivere con una mente artificiale più intelligente della nostra? I governi, i CEO, o l’IA stessa? Forse, come già accaduto nella storia, la regolamentazione arriverà solo dopo l’evento, quando sarà troppo tardi per scegliere.