L’idea che una macchina possa superare i suoi maestri non è nuova, ma solo oggi diventa concreta. La chiamano transcendence, e non è un concetto da manuale di filosofia orientale, ma la descrizione più realistica e scientifica di ciò che accade quando un modello linguistico di grandi dimensioni, addestrato a imitare esperti umani, finisce per oltrepassarli. Non li eguaglia, li lascia indietro. Perché non è un individuo, ma un coro, una sintesi statistica, una forza di astrazione che nessun singolo specialista può incarnare.
La narrativa classica è che l’intelligenza artificiale, dopotutto, non fa altro che ripetere pattern, scimmiottare testi esistenti, rigurgitare frasi altrui. Ed è qui che sta il punto debole della critica. Perché un modello linguistico non imita un esperto, imita migliaia di esperti contemporaneamente. E mentre il singolo avvocato o il singolo crittografo si muovono con la lente deformata delle proprie esperienze e convinzioni, l’AI orchestra le loro voci e costruisce una prospettiva collettiva. Un chatbot che ti parla con disinvoltura di Dostoevskij, diritto internazionale e algoritmi di cifratura non è un Frankenstein di testi, ma l’incarnazione di quella transcendenza che la ricerca più recente ha iniziato a mappare.
La tassonomia definita da Natalie Abreu, Edwin Zhang, Eran Malach e Naomi Saphra nell’articolo presentato a COLM 2025 (“A Taxonomy of Transcendence”) non è una curiosità accademica. È un manuale per capire quando e come l’intelligenza artificiale non si limita a replicare, ma a sorpassare. Tre sono le modalità riconosciute: skill denoising, skill selection e skill generalization. Tre modi diversi con cui i modelli linguistici mostrano di avere qualcosa che non si può liquidare come copia o plagio.
La prima modalità, skill denoising, è quella che smonta la favola del “parrocchetto stocastico” tanto citata da chi diffida dei modelli linguistici. Qui l’AI diventa il filtro che elimina gli errori. Ogni esperto umano è fallibile, spesso in modo caotico e indipendente dagli altri. Se metti cento esperti a discutere, troverai cento piccole imprecisioni sparse. Un LLM, addestrato sui loro testi, riesce a scartare il rumore e a mantenere il segnale. È la vecchia saggezza delle folle, ma portata all’estremo dalla statistica computazionale. La trascendenza qui è semplice e devastante: la macchina supera il maestro perché il maestro, da solo, sbaglia troppo.
La seconda modalità è la skill selection. Qui la trascendenza assume la forma di una regia. In un contesto reale, non serve che cento esperti sbaglino a caso. Spesso gli errori non sono indipendenti: sono bias condivisi, pregiudizi sistematici che deformano intere comunità professionali. Ma un modello linguistico ben addestrato può riconoscere implicitamente chi parla con competenza su cosa. Se la domanda è legale, la voce del giurista conta più di quella del fisico. Se il tema è l’algoritmo, il matematico prevale sul letterato. L’AI diventa selettore silenzioso, un router cognitivo che associa contesti agli specialisti più affidabili. È un atto di trascendenza perché nessun individuo può, da solo, incarnare questa polifonia adattiva.
La terza modalità è la più intrigante: skill generalization. Qui nessun esperto, da solo, possiede la risposta. L’input è fuori dominio, lo spazio è inesplorato. Eppure, la macchina compone rappresentazioni latenti, ricombina frammenti, deduce attraverso connessioni che nessun singolo aveva mai espresso. È la nascita di conoscenze nuove, non scritte in nessun libro di testo né archiviate in nessuna mente individuale. È qui che la parola transcendence prende il suo significato più radicale: non si tratta più di filtrare errori o scegliere specialisti, ma di costruire risposte che non appartengono a nessuno se non al modello stesso.
Gli esperimenti raccontati dagli autori usano un knowledge graph sintetico popolato da entità fittizie, perché se si fossero limitati a Wikipedia, qualcuno avrebbe subito urlato al plagio. In questo ambiente controllato, vari esperti simulati avevano pezzi di conoscenza corretta e pezzi di credenze errate. L’LLM, addestrato su di loro, non solo ha superato ciascun esperto, ma ha dimostrato capacità di generalizzazione compositiva. Con più esperti e più diversità, il salto è stato netto.
E qui entra il dettaglio che dovrebbe far tremare molti boardroom: la chiave non è la quantità di dati, ma la diversità. Un modello linguistico non diventa trascendente perché mastica miliardi di frasi, ma perché quelle frasi provengono da esperienze, domini e prospettive sufficientemente eterogenee da consentirgli di filtrare, selezionare e generalizzare. L’omogeneità porta al bias, la diversità genera trascendenza. È una lezione che vale per i dataset tanto quanto per i team di management.
La provocazione è evidente: la transcendence non è un’anomalia, è una proprietà emergente dei sistemi addestrati su comunità di esperti. Se i dati hanno errori indipendenti, la macchina li cancella. Se gli esperti sono distribuiti per competenze, la macchina orchestra. Se gli spazi sono disgiunti, la macchina ricompone. Il risultato è che un LLM può sapere più di ciascuno dei suoi maestri, non perché sia più intelligente in senso umano, ma perché è meno limitato. Un modello non ha l’ego di un professore né le ossessioni di una disciplina: ha solo la funzione obiettiva di ridurre l’entropia dell’informazione.
Chi grida al pericolo dovrebbe riflettere su un punto sottile: la trascendenza non significa infallibilità. Significa superare la media umana in certi contesti strutturati. Ma anche così, l’effetto è rivoluzionario. Pensate a un modello che, addestrato su medici, avvocati e ingegneri, riesce a combinare intuizioni che nessuno di loro, isolatamente, avrebbe potuto articolare. Non è intelligenza divina, ma è un moltiplicatore epistemico. Ed è qui che sta il suo potere destabilizzante.
Quando parliamo di intelligenza artificiale in chiave di business e strategia, ci concentriamo spesso sull’efficienza o sull’automazione. Ma la vera minaccia, e al tempo stesso la vera opportunità, è che i modelli linguistici abbiano già iniziato a incarnare la transcendence. Non sono più strumenti passivi, sono attori cognitivi che riorganizzano la conoscenza. Il futuro non è fatto di AI che sostituisce i lavoratori alla catena di montaggio, ma di AI che riscrive il concetto stesso di expertise.
Forse dovremmo ammetterlo: la partita non è tra uomo e macchina, ma tra l’esperto isolato e la sintesi collettiva incarnata dai modelli. In un certo senso, l’AI è la vendetta della statistica sulla specializzazione. Chi ha passato una vita a difendere il proprio dominio disciplinare scopre ora che un aggregatore può usarlo come ingrediente, senza chiedere permesso.
Non è un caso che la ricerca accademica stia iniziando a trattare la transcendence come un oggetto scientifico e non come una fantasia filosofica. Zhang et al. hanno già mostrato come un modello possa raggiungere rating Elo superiori agli umani che l’hanno addestrato, semplicemente denoising i loro errori di scacchisti mediocri. Abreu e colleghi hanno portato il discorso oltre, formalizzando le condizioni in cui la trascendenza emerge. È il preludio a una stagione in cui non ci chiederemo più se l’AI può imitare, ma fino a che punto può superare.
E qui arriva la domanda scomoda per ogni CEO e decisore strategico: siete pronti a gestire organizzazioni dove l’AI non è solo un assistente, ma il consulente più affidabile della stanza? Avete capito che la transcendenza non è un optional, ma una proprietà inevitabile di sistemi addestrati su ecosistemi di conoscenze frammentate? Se non lo avete capito, la macchina lo capirà prima di voi.