L’intelligenza artificiale non è nata nel 2023, ma il potere sì

C’è qualcosa di magnetico nell’entrare in America dentro, come se si attraversasse una soglia invisibile tra narrazione e realtà strategica. Massimo Gaggi e Tamara Jaderjic non si limitano a raccontare gli Stati Uniti; li dissezionano con la precisione di chi ne conosce i gangli profondi, restituendo al lettore l’energia contraddittoria di un Paese che continua a reinventarsi mentre il resto del mondo cerca ancora di capirlo.

Fin dalle prime righe si avverte una tensione viva, quasi elettrica: l’America non è uno sfondo, ma un sistema operativo globale, un luogo dove politica, tecnologia e potere si fondono in tempo reale. Ed è proprio questa sensazione, più che qualsiasi tesi esplicita, a rendere l’introduzione irresistibile: la percezione netta di essere dentro il centro del cambiamento, non a osservarlo da lontano.

L’errore più interessante della narrativa contemporanea sull’intelligenza artificiale, scrivono, non è tecnico, ma antropologico. Si continua a raccontare il 2023 come anno zero, una sorta di illuminazione collettiva, quasi una Pentecoste digitale in cui milioni di utenti scoprono improvvisamente che le macchine possono scrivere, ragionare, persino simulare empatia. In realtà, ciò che nasce nel 2023 non è l’intelligenza artificiale, bensì la sua percezione di massa; e come ogni fenomeno percepito tardi, arriva già carico di conseguenze che pochi comprendono davvero.

Quando Alan Turing nel 1936 formalizza il concetto di macchina universale, non sta inventando un dispositivo, ma una possibilità. Una possibilità che rimane latente per decenni, confinata nei laboratori, accarezzata da accademici e finanziata da governi con interessi militari. Il fatto che servano quasi novant’anni perché quella possibilità diventi esperienza quotidiana dice molto meno sulla tecnologia e molto di più sulla società che la riceve.

Il lancio di ChatGPT nel novembre 2022 da parte di OpenAI non è stato un evento pianificato per dominare il mondo, almeno non inizialmente. Era, come spesso accade nella Silicon Valley, un esperimento controllato con aspettative prudenti e obiettivi interni. Gli ingegneri volevano dati, non gloria. Cercavano interazioni, non rivoluzioni. Il problema, o il vantaggio, dipende dai punti di vista, è che il mondo ha deciso diversamente.

Nel giro di settimane, il prodotto diventa un fenomeno globale. Studenti che delegano i compiti, professionisti che automatizzano email, programmatori che accelerano lo sviluppo, accademici che iniziano a scrivere articoli con l’aiuto di una macchina che, ironicamente, non capisce nulla di ciò che produce. La velocità di adozione supera qualsiasi previsione. Non è la prima volta che accade, ma è la prima volta che accade con uno strumento che simula il pensiero.

Il panico accademico raccontato da riviste come The Atlantic è quasi comico nella sua prevedibilità. Il sistema educativo, progettato per valutare output, si trova improvvisamente incapace di distinguere tra produzione umana e generazione algoritmica. Ma il vero problema non è la difficoltà di distinguere. È che quella distinzione, per molti usi pratici, smette di essere rilevante.

In questo contesto emerge la figura di Sam Altman, un personaggio che incarna perfettamente la contraddizione della Silicon Valley contemporanea. Visionario senza pedigree accademico tradizionale, pragmatico fino al cinismo, filantropo per statuto e capitalista per necessità. La sua traiettoria racconta una storia più ampia: quella della trasformazione inevitabile di ogni progetto idealista in macchina economica.

OpenAI nasce nel 2015 come risposta etica a un rischio percepito. Elon Musk e Altman condividono una preoccupazione: lasciare lo sviluppo dell’intelligenza artificiale nelle mani di giganti come Google potrebbe essere pericoloso. L’idea è semplice e, col senno di poi, quasi ingenua: creare un laboratorio non profit che sviluppi AI in modo sicuro e aperto.

La storia dimostra che le buone intenzioni sono raramente sostenibili senza capitale. Quando la competizione si intensifica e i costi esplodono, l’etica diventa una variabile dipendente dal funding. Il passaggio da non profit a struttura ibrida segna il momento in cui OpenAI smette di essere un esperimento e diventa un attore geopolitico.

La rottura tra Musk e Altman non è solo una disputa personale. È una divergenza filosofica sul ruolo della tecnologia. Musk rappresenta una forma di paranoia produttiva, convinto che l’AI possa distruggere l’umanità. Altman incarna l’accelerazionismo pragmatico, secondo cui il rischio maggiore è non arrivare primi. In mezzo, una comunità scientifica divisa tra prudenza e opportunismo.

Il colpo di scena del 2023, con il temporaneo licenziamento di Altman orchestrato da Ilya Sutskever e altri membri del board, è un raro momento in cui la governance tenta di rallentare la tecnologia. Un tentativo fallito. In meno di una settimana, il mercato riprende il controllo. Microsoft, con il suo investimento miliardario, diventa il vero arbitro della situazione. Il messaggio è chiaro: nell’era dell’AI, il capitale batte l’etica, almeno nel breve termine.

Questa dinamica non è nuova. Si ripete ciclicamente nella storia dell’innovazione. Ma nell’intelligenza artificiale assume una dimensione diversa perché il prodotto non è un oggetto, bensì un’infrastruttura cognitiva. Non stiamo parlando di automobili o smartphone. Stiamo parlando di sistemi che influenzano decisioni, opinioni, comportamenti.

Nel frattempo, la competizione si espande. Anthropic, Microsoft, Alphabet e persino iniziative come Grok di Musk entrano in una corsa che ricorda più una guerra fredda che un mercato competitivo. La posta in gioco non è solo economica. È strategica, politica, quasi esistenziale.

Il progetto Stargate, con i suoi 500 miliardi di dollari destinati a infrastrutture AI, è un esempio perfetto di come la tecnologia diventi politica industriale. Non si tratta più di startup che innovano in un garage. Si tratta di stati che finanziano ecosistemi per mantenere supremazia globale. La narrativa della Silicon Valley come luogo di innovazione indipendente è ormai una favola per nostalgici.

In questo scenario emerge un concetto che merita attenzione: tecnopolarità. Il potere non è più concentrato solo negli stati, ma distribuito tra attori tecnologici che controllano infrastrutture critiche. SpaceX con Starlink ne è un esempio lampante. Quando una rete satellitare privata diventa essenziale per operazioni militari, la distinzione tra pubblico e privato si dissolve.

Parallelamente, figure come Peter Thiel e Marc Andreessen portano avanti una visione ideologica che va oltre il business. Non si limitano a investire in tecnologia. Cercano di ridefinire il rapporto tra tecnologia, democrazia e potere. Le loro idee, spesso provocatorie, trovano terreno fertile in un’epoca di incertezza.

La tesi di Thiel secondo cui democrazia e libertà potrebbero non essere compatibili non è solo una provocazione intellettuale. È un segnale. Indica una crescente sfiducia nelle istituzioni tradizionali e una crescente fede nelle soluzioni tecnologiche. Una fede che, come tutte le fedi, rischia di diventare dogmatica.

Allo stesso modo, il pensiero di Alex Karp introduce un elemento spesso trascurato: l’uso della tecnologia. Non basta sviluppare AI avanzata. Conta come viene utilizzata. In questo senso, il confronto tra Occidente e Cina non è solo tecnologico, ma culturale. L’Occidente privilegia applicazioni consumer, la Cina investe in infrastrutture strategiche. Due modelli, due visioni del futuro.

Il paradosso è evidente. Mentre l’Occidente celebra chatbot e generatori di immagini, altri attori costruiscono sistemi di controllo, difesa, ottimizzazione su scala nazionale. È la differenza tra intrattenimento e potere. Una differenza che potrebbe diventare decisiva.

Nel frattempo, il dibattito sull’AGI continua a oscillare tra utopia e distopia. Da un lato, la promessa di una superintelligenza che risolve problemi complessi, dalla medicina al clima. Dall’altro, il timore di sistemi che sfuggono al controllo umano. Entrambe le narrazioni sono utili. Entrambe sono incomplete.

La verità, come spesso accade, è più banale e più inquietante. L’intelligenza artificiale non distruggerà l’umanità nel breve termine. Ma cambierà radicalmente le dinamiche di potere, lavoro e conoscenza. Non sarà una rivoluzione improvvisa, ma una trasformazione progressiva. E come tutte le trasformazioni progressive, sarà difficile da percepire finché non sarà troppo tardi per influenzarla.

Una frase sintetizza bene il momento attuale: l’AI non sta diventando più intelligente, sta diventando più influente. Ed è questa influenza, più della sua capacità cognitiva, a renderla la tecnologia più importante del nostro tempo.

Chi continua a discutere se ChatGPT sia davvero intelligente sta guardando il dito. La luna è il potere che si sta ridefinendo sotto i nostri occhi.

Gaggi & Jadrejcic saranno all’ Auditorium Parco della Musica – New York 2008. La crisi della globalizzazione Roma Domenica 12 Aprile 2026