Un paper accademico pubblicato da ricercatori della University of Washington Allen School of Computer Science & Engineering e della Stanford University. Lo studio ha analizzato più di settanta modelli linguistici di grandi aziende tecnologiche sottoponendoli alle stesse domande aperte, quelle che non hanno una risposta unica e che normalmente generano una varietà quasi infinita di interpretazioni quando vengono poste a esseri umani.
Il risultato, almeno sulla carta, appare quasi ironico: modelli costruiti con architetture diverse, addestrati su dataset differenti, sviluppati da aziende in feroce competizione tra loro, finiscono per produrre risposte sorprendentemente simili. Non solo nella sostanza ma nella forma, nella struttura narrativa, nella scelta delle metafore e perfino nell’organizzazione logica del ragionamento. Un’idea di business proposta da un modello tende a somigliare a quella generata da altri. Una poesia, pur con parole diverse, segue schemi analoghi. Persino i consigli esistenziali sembrano provenire da una sorta di coro sintetico che ripete la stessa filosofia moderatamente ottimista.
I ricercatori hanno utilizzato una definizione suggestiva per descrivere questo fenomeno: Artificial Hivemind. L’immagine dell’alveare è più che una metafora retorica. In un alveare biologico le singole api operano come parti di un sistema cognitivo distribuito, producendo decisioni collettive attraverso semplici regole condivise. Nel caso dei modelli linguistici, la convergenza emerge da un mix di fattori tecnici e industriali che stanno lentamente uniformando il comportamento delle AI commerciali.
Dal punto di vista tecnologico la spiegazione più banale è anche la più plausibile. Gran parte dei modelli moderni deriva dalla stessa famiglia di architetture basate sui transformer introdotti nel 2017 con il celebre paper “Attention Is All You Need”. L’idea di fondo è identica: gigantesche reti neurali addestrate a predire la parola successiva in una sequenza. Le differenze tra modelli, per quanto rilevanti dal punto di vista ingegneristico, spesso riguardano la scala del training, l’ottimizzazione e i dataset. Il principio cognitivo sottostante rimane sorprendentemente uniforme.
Un altro fattore decisivo è l’allineamento. Negli ultimi anni l’industria ha sviluppato tecniche simili per rendere i modelli più sicuri e più utili. Il paradigma dominante è il cosiddetto RLHF, reinforcement learning from human feedback, utilizzato tra gli altri da OpenAI, Anthropic e Google. In pratica si addestra il modello a produrre risposte che un gruppo di valutatori umani giudica migliori, più utili e più sicure.
Il risultato è che i modelli non imparano solo a rispondere correttamente, ma anche a rispondere nello stesso modo “preferito”. In altre parole vengono addestrati a convergere verso un comportamento linguistico medio. Un algoritmo non impara solo cosa dire, impara anche quale tono adottare, quale prudenza retorica mantenere e quali strutture argomentative evitare.
La storia economica offre molti paralleli interessanti. All’inizio di un mercato emergente esiste una grande varietà di approcci, quasi una giungla darwiniana di idee. Poi arrivano gli standard industriali e improvvisamente tutti i prodotti iniziano a somigliarsi. Negli anni Ottanta, per esempio, l’industria dei personal computer si consolidò attorno allo standard IBM compatibile. Negli anni Duemila la convergenza è arrivata nel mercato degli smartphone dopo l’introduzione dell’iPhone da parte di Apple.
L’intelligenza artificiale sembra seguire lo stesso schema. All’inizio del boom degli LLM esisteva una percezione di grande diversità: modelli con personalità differenti, toni diversi, stili divergenti. Oggi la convergenza è visibile non solo nelle prestazioni ma nel modo stesso in cui le AI pensano.
Una frase che gira spesso tra i ricercatori di machine learning è quasi un aforisma industriale: “Alignment is culture encoded into code.” In altre parole, l’allineamento trasforma i valori impliciti dei valutatori umani in un comportamento algoritmico standardizzato. Quando milioni di esempi di feedback umano vengono utilizzati per addestrare modelli diversi, il risultato finale è inevitabilmente una forma di cultura sintetica condivisa.
La conseguenza più curiosa riguarda la creatività. Gli esseri umani sono straordinariamente divergenti nelle loro risposte a domande aperte. Chiedere a cento persone di immaginare un nuovo modello di business produce un caos meraviglioso di intuizioni. Alcune saranno pessime, altre bizzarre, qualcuna geniale. L’innovazione nasce spesso da queste deviazioni statistiche.
Gli LLM, invece, sembrano gravitare verso una sorta di centro ideologico del linguaggio. Generano risposte plausibili, equilibrate, educatamente intelligenti. Il problema è che questa plausibilità media può diventare un limite strategico. Una macchina che produce sempre l’idea più ragionevole non produrrà quasi mai l’idea più radicale.
Nel mondo della ricerca scientifica questo fenomeno potrebbe avere implicazioni non banali. La storia della scienza è piena di intuizioni eccentriche che inizialmente sembravano assurde. La relatività di Albert Einstein, la meccanica quantistica di Niels Bohr, perfino l’evoluzione di Charles Darwin erano concetti profondamente controintuitivi per la cultura scientifica dominante del loro tempo.
Un sistema cognitivo troppo allineato rischia di filtrare proprio quelle deviazioni creative che storicamente hanno generato progresso. Il paradosso è evidente: l’industria AI sta costruendo modelli sempre più intelligenti e allo stesso tempo potenzialmente meno divergenti.
Esiste poi una dimensione geopolitica che merita attenzione. Gran parte dei modelli analizzati nello studio proviene da aziende statunitensi o da ecosistemi tecnologici molto simili tra loro. Quando l’infrastruttura cognitiva globale viene sviluppata da un numero limitato di aziende, la diversità epistemologica potrebbe ridursi ulteriormente.
La Silicon Valley ama raccontarsi come il luogo della creatività radicale. La realtà industriale è più prosaica. Le aziende convergono rapidamente verso le stesse best practice, gli stessi benchmark e gli stessi criteri di valutazione. I modelli linguistici vengono giudicati su leaderboard condivise, su test standardizzati e su metriche quasi identiche.
In economia questo processo ha un nome preciso: isomorfismo istituzionale. Le organizzazioni che competono nello stesso settore finiscono per assomigliarsi sempre di più perché sono valutate secondo gli stessi criteri. Le AI stanno attraversando lo stesso fenomeno.
Naturalmente la convergenza non è necessariamente un male. Un certo grado di uniformità rende i sistemi più prevedibili e sicuri. Un modello linguistico che improvvisa completamente potrebbe essere molto più creativo ma anche molto più pericoloso. L’industria preferisce modelli affidabili piuttosto che eccentrici.
Tuttavia il trade off tra sicurezza e diversità cognitiva diventerà probabilmente uno dei temi centrali della prossima fase dell’intelligenza artificiale. La domanda non è più soltanto quanto un modello sia intelligente, ma quanto sia divergente.
Immaginare un ecosistema di AI con personalità realmente diverse potrebbe diventare una nuova frontiera di ricerca. Modelli addestrati su dataset culturali differenti, sistemi con obiettivi epistemologici diversi, architetture progettate per massimizzare la varietà delle risposte invece della loro coerenza statistica.
In altre parole, l’evoluzione dell’AI potrebbe spostarsi da una corsa alla potenza computazionale a una corsa alla diversità cognitiva. Una sorta di biodiversità algoritmica.
Qualcuno potrebbe obiettare che la diversità emergerà naturalmente con l’aumento delle dimensioni dei modelli. La storia della tecnologia suggerisce il contrario. Quando un settore raggiunge maturità industriale, la convergenza aumenta, non diminuisce.
La vera domanda quindi è quasi filosofica. Se miliardi di persone inizieranno a interagire quotidianamente con sistemi cognitivi che producono risposte simili, quale sarà l’effetto sulla cultura globale? Una società che consulta lo stesso alveare digitale per prendere decisioni potrebbe diventare straordinariamente efficiente, ma anche sorprendentemente conformista.
Una frase circola tra gli investitori della Silicon Valley, spesso attribuita con una certa ironia al venture capitalist Peter Thiel: “Competition is for losers.” Nel mercato delle AI generative questa provocazione assume un significato quasi letterale. Le aziende competono ferocemente, ma i loro modelli iniziano a pensare nello stesso modo.
Paradosso tecnologico degno di nota. Le macchine diventano più intelligenti mentre l’intelligenza collettiva delle macchine diventa più uniforme.
Forse il vero progresso della prossima decade non sarà costruire AI più grandi o più veloci. Potrebbe essere qualcosa di molto più sottile e molto più umano: progettare intelligenze artificiali che non siano d’accordo tra loro.
Paper https://arxiv.org/abs/2510.22954