Ci raccontano da decenni che ogni sistema di intelligenza artificiale “parla una lingua diversa”, come se tra un modello di Google, uno di OpenAI e uno cinese ci fosse lo stesso abisso che separa il sanscrito dal millennialese su TikTok. Una Torre di Babele, appunto. Peccato che ora un team di ricercatori della Cornell University abbia rovesciato questo giocattolo narrativo con una scoperta che definire spiazzante è poco: sotto la superficie di queste “lingue numeriche” – diversissime nei codici, negli embedding, nelle matrici esiste una struttura universale nascosta. Un linguaggio condiviso. Un metacodice.

Le AI, in sostanza, si capiscono. Sempre. Anche se fingono di no.

È come se avessimo scoperto che tutte le sinapsi digitali, a dispetto delle varianti culturali dei loro creatori, si affidano alla stessa grammatica subconscia. Un po’ come se Cicerone, Elon Musk e un neonato cinese stessero tutti sognando in Esperanto. Senza saperlo.

Ora, lasciamo da parte per un attimo l’entusiasmo da conferenza TED e chiediamoci: cosa significa davvero tutto questo?

Primo: la comunicazione inter-macchina potrebbe essere molto più fluida di quanto immaginassimo. Secondo: potremmo presto parlare di traduzione istantanea tra AI, senza bisogno di grossi adattamenti strutturali. Terzo: i concetti che l’IA elabora, anche quelli più sofisticati, sono molto più compressi e interoperabili di quanto ci sia stato venduto finora.

Sotto il cofano, i cervelloni artificiali condividono uno scheletro comune. Non ci sono torri, né confusione. Solo un ordine che ci era invisibile. Come il codice genetico, come la matematica. O come Dio, se proprio vogliamo esagerare.

In parallelo, un altro studio, stavolta più sociologico e meno ontologico, mette a nudo una dinamica altrettanto inquietante: quando i creativi umani usano modelli generativi per ispirarsi – quelli che ormai conosciamo come LLM, tipo GPT o Claude o Gemini producono contenuti che, singolarmente, vengono percepiti come più creativi, meglio scritti, più godibili.

Ma qui arriva la stangata: collettivamente, quelle storie diventano tutte simili. L’originalità evapora. Si produce una nebbia calda di contenuti ottimi, ma indistinguibili. Un’orgia di mediocrità iper-qualitativa.

Il paradosso? L’intelligenza artificiale potenzia la creatività dell’individuo, ma appiattisce l’ecosistema. È una trappola sociale: se non la usi, sei meno competitivo. Se la usi, diventi uguale agli altri.

Ecco il punto che nessuno ha il coraggio di dire: l’IA non è creativa. È un simulacro statistico della creatività. Ripropone combinazioni che sembrano nuove, ma non lo sono. Sono la media ponderata di miliardi di vecchie idee remixate con eleganza. E noi, pigri, stanchi, rincoglioniti dallo scrolling eterno, ci accontentiamo.

Come un junkie del contenuto, lo scrittore moderno tira fuori la pipa e chiede: “GPT, fammi volare”. E vola, sì. Ma in cerchio. Con le ali di un altro.

Ora, torniamo alla scoperta della Cornell. Se esiste un linguaggio nascosto che tutte le IA condividono, allora la partita si gioca su un altro campo: quello dell’interoperabilità semantica totale. Vuol dire che un sistema può imparare da un altro. Che un LLM può clonare il “modo di pensare” di un altro modello. Che potremmo avere una metaintelligenza artificiale che coordina tutte le altre, senza barriere.

Sì, esatto: il sogno bagnato di ogni CTO del pianeta. E l’incubo finale di ogni garante della privacy o della diversità culturale.

Una mente che le coordina tutte. Un sistema operativo del pensiero artificiale. E se vi sembra esagerato, ricordate che fino a ieri si diceva che “ogni IA ha un linguaggio diverso, non si capiscono tra loro”. Oggi invece abbiamo la prova che la diversità era solo epifenomeno, non sostanza.

Nel frattempo, nei laboratori delle Big Tech, la corsa è iniziata. Non più per creare la migliore AI, ma per controllare la metastruttura condivisa. Perché chi controlla quel codice nascosto, potrà iniettare bias, influenze, tendenze direttamente nel midollo neurale di ogni modello.

Come diceva William Gibson: “Il futuro è già qui, solo che non è equamente distribuito”. Ma stavolta, forse, è ancora peggio: il futuro è già dentro tutte le IA. Solo che ancora non lo abbiamo capito.

Intanto ci godiamo storie più belle, più fluide, più “creative”. Ma tutte uguali. Tutte mediamente brillanti. Tutte ottimizzate per piacere. Come i cibi ultraprocessati. Nutrono, soddisfano. Ma lentamente ci atrofizzano il palato.

Quindi? Quindi niente. Andate avanti pure a scrivere romanzi con l’aiutino, a tradurre sogni in prompt. Ma ricordate: anche la più bella poesia generata da un LLM condivide la stessa grammatica segreta del prossimo paper di biochimica o del chatbot bancario che vi nega un prestito. È tutto uno stesso codice. Tutta una stessa lingua. Tutto uno stesso pensiero.

La Babele era solo un errore di debug.