L’età dell’intelligenza industriale e l’illusione della governance democratica dell’AI
La storia economica è piena di paradossi, ma pochi sono eleganti quanto quello che si sta consumando oggi: le aziende che stanno costruendo sistemi potenzialmente post-capitalistici sono le stesse che chiedono ai governi di prepararsi a gestirne le conseguenze. Tra queste, OpenAI si distingue per una certa lucidità strategica che rasenta il realismo cinico. Nel documento “Industrial Policy for the Intelligence Age”, l’azienda propone una riflessione che, se letta senza filtri ideologici, suona meno come un manifesto e più come una pre-allerta sistemica.
L’idea centrale è semplice, e proprio per questo destabilizzante: l’intelligenza artificiale non sarà una tecnologia come le altre. Non lo è già. L’elettricità ha impiegato decenni per diffondersi, Internet almeno una generazione per maturare; l’AI sta comprimendo cicli storici in trimestri fiscali. Chi governa aziende lo percepisce già nei margini operativi, chi governa stati comincia appena a comprenderlo nei report strategici. La velocità è il primo vero rischio sistemico.
Nel documento, OpenAI suggerisce di trattare l’accesso all’AI come una risorsa fondamentale, quasi un diritto economico di base, paragonabile all’alfabetizzazione. Il parallelo è raffinato ma incompleto. L’alfabetizzazione ha democratizzato l’accesso all’informazione, ma non ha mai eliminato le asimmetrie di potere. Ha semplicemente cambiato il campo di gioco. L’AI promette qualcosa di più radicale: non solo accesso alla conoscenza, ma delega cognitiva. Non si tratta di leggere il mondo, ma di farselo interpretare.
In teoria, questo dovrebbe aumentare la produttività globale, e probabilmente lo farà. In pratica, però, la produttività è una variabile che raramente distribuisce i benefici in modo equo. Lo dimostra la storia recente delle piattaforme digitali, dove pochi attori hanno catturato una quota sproporzionata del valore creato. L’AI rischia di amplificare questa dinamica, portandola a un livello quasi irreversibile. Quando il capitale non è più solo finanziario ma anche cognitivo, la concentrazione diventa esponenziale.
Qui entra in gioco la proposta, apparentemente progressista, di “condividere i benefici economici dell’AI”. Una frase elegante che nasconde un problema brutale: come si redistribuisce il valore generato da sistemi che apprendono autonomamente, operano globalmente e sfuggono alle giurisdizioni tradizionali? La fiscalità del Novecento è costruita su beni tangibili e lavoro umano. L’AI dissolve entrambe le categorie. Tassare un algoritmo è concettualmente più complesso che tassare una fabbrica, e molto meno politicamente popolare quando i contribuenti sono colossi tecnologici con bilanci superiori a quelli di molti stati.
Il documento accenna alla necessità di modernizzare i sistemi fiscali. Una formulazione prudente, quasi diplomatica. La realtà è che serve una riscrittura radicale del contratto sociale. Se il lavoro umano perde centralità nella creazione di valore, allora anche il legame tra lavoro e reddito deve essere ripensato. Non è una questione ideologica, è una questione matematica.
Nel frattempo, il mercato del lavoro si prepara a una trasformazione che molti continuano a sottovalutare. Non si tratta più di automazione di compiti ripetitivi. L’AI sta entrando nelle professioni cognitive ad alto valore aggiunto, quelle che per decenni sono state considerate immuni alla disintermediazione tecnologica. Avvocati, consulenti, analisti finanziari, sviluppatori. L’ironia è evidente: le stesse categorie che hanno beneficiato della globalizzazione potrebbero essere le prime a subirne una versione algoritmica.
Il documento propone anche un rafforzamento delle protezioni sociali. Una posizione prevedibile, ma che nasconde una tensione strutturale. I sistemi di welfare sono progettati per shock ciclici, non per cambiamenti strutturali permanenti. La disoccupazione tecnologica, se dovesse manifestarsi su larga scala, non sarebbe un’anomalia temporanea ma una nuova normalità. Gestirla con strumenti tradizionali rischia di essere come usare un ombrello durante un uragano.
Parallelamente, OpenAI introduce il tema della governance tecnica, parlando di auditing dei modelli, sistemi di segnalazione degli incidenti e persino “playbook di contenimento” per scenari in cui sistemi avanzati non possano essere facilmente richiamati. Qui il linguaggio cambia tono. Diventa più ingegneristico, meno politico. Ed è forse la parte più interessante del documento, perché riconosce implicitamente che stiamo costruendo sistemi che potrebbero sfuggire al controllo operativo.
La storia dell’ingegneria è piena di sistemi complessi che hanno superato le aspettative dei loro creatori. Dai mercati finanziari agli ecosistemi software distribuiti, ogni volta che la complessità supera una certa soglia emergono comportamenti non lineari. L’AI, soprattutto nella sua forma più avanzata e autonoma, sembra destinata a seguire lo stesso percorso. Parlare di “contenimento” non è fantascienza, è prudenza operativa.
In questo contesto, la retorica della “governance democratica” appare, nella migliore delle ipotesi, aspirazionale. La velocità con cui si sviluppano questi sistemi è incompatibile con i tempi della deliberazione politica tradizionale. Le democrazie discutono, negoziano, rallentano. L’AI scala, itera, ottimizza. Il rischio non è solo tecnologico, ma istituzionale: un disallineamento crescente tra la capacità di innovare e la capacità di governare.
Le tensioni interne a OpenAI, emerse anche nel caso di Sam Altman e Ilya Sutskever, sono un riflesso perfetto di questo dilemma. Da un lato, la spinta verso la crescita, il prodotto, la scalabilità. Dall’altro, la preoccupazione per la sicurezza, l’allineamento, il rischio esistenziale. Non è una disputa personale, è una frattura strutturale che attraversa tutta l’industria.
Il fatto che figure come Dario Amodei abbiano scelto di costruire alternative focalizzate sulla sicurezza indica che il problema non è teorico. È già operativo. La competizione tra aziende AI non è solo una corsa alla performance, ma anche una corsa alla definizione degli standard di sicurezza. E, come spesso accade, gli standard emergono più dal mercato che dalla regolazione.
Il documento di OpenAI va letto quindi per quello che è realmente: non un piano, ma un segnale. Un segnale che il settore privato è consapevole delle implicazioni sistemiche delle proprie innovazioni e, forse, preoccupato di non avere gli strumenti per gestirle da solo. Chiedere l’intervento dei governi è, in questo senso, una forma di assicurazione istituzionale.
Rimane però una domanda, inevitabile e scomoda. Se le aziende che sviluppano queste tecnologie sono le stesse che ne trarranno i maggiori benefici economici, quanto sarà realmente neutrale il loro contributo al dibattito politico? La storia suggerisce una risposta prudente. Le politiche industriali raramente nascono nel vuoto, e ancora più raramente sono disegnate contro gli interessi di chi ha il potere di influenzarle.
Il risultato è un equilibrio instabile, in cui innovazione e regolazione si inseguono senza mai raggiungersi. Un gioco del gatto e del topo che, nel caso dell’AI, potrebbe avere conseguenze più profonde di qualsiasi rivoluzione tecnologica precedente. Perché, a differenza del passato, questa volta non stiamo solo automatizzando il lavoro. Stiamo ridefinendo il concetto stesso di intelligenza economica.
Una frase, quasi nascosta nel documento, sintetizza perfettamente la posta in gioco: se l’AI finirà per essere controllata da pochi, mentre la maggioranza non avrà accesso né potere decisionale, avremo fallito. È una constatazione semplice, ma contiene un’intera teoria politica. E, implicitamente, una confessione.
Il problema non è costruire l’intelligenza artificiale. Il problema è decidere chi ne controllerà gli effetti.
Paper https://openai.com/index/industrial-policy-for-the-intelligence-age/