Stephen Wolfram è probabilmente uno dei pensatori più sottovalutati della nostra epoca. Mentre Silicon Valley si innamora ciclicamente dell’ennesima buzzword, Wolfram da oltre vent’anni ci ricorda una verità che molti fingono di non sentire: la realtà non è sempre riducibile. L’irriducibilità computazionale, il cuore del suo “A New Kind of Science” del 2002, è un concetto che fa tremare i polsi a chi ancora crede che basti più potenza di calcolo per domare il caos. L’idea è semplice e devastante allo stesso tempo: ci sono sistemi in cui non esiste alcuna scorciatoia per prevedere l’esito. Se vuoi sapere come andrà a finire, devi calcolare ogni singolo step, senza saltare nulla.

Molti scienziati tradizionali hanno storto il naso, convinti che fosse un’intuizione interessante ma marginale. Poi, vent’anni dopo, ci ritroviamo con intelligenze artificiali che funzionano esattamente così: modelli che non puoi comprimere, reti neurali che non puoi capire davvero con una formula elegante. Ogni output è il risultato di miliardi di calcoli irriducibili. Non puoi sapere cosa diranno senza farle girare. E allora il sospetto diventa certezza: Wolfram aveva visto giusto.

La scienza del Novecento è stata ossessionata dall’idea di trovare modelli predittivi, di ridurre la complessità a un’equazione compatta. La fisica newtoniana e quella einsteiniana, i modelli statistici e quelli probabilistici, persino l’economia, hanno sempre inseguito la chimera di scrivere formule chiuse capaci di prevedere il futuro. Il sogno laplaciano: un’intelligenza che conosce lo stato del mondo e lo proietta all’infinito. L’irriducibilità computazionale manda tutto in frantumi. Anche i sistemi deterministici possono essere imprevedibili, non perché ci manchino i dati, ma perché la struttura del processo non consente alcuna semplificazione.

Questo non è un limite tecnico. Non è una questione di GPU insufficienti o di algoritmi ancora immaturi. È una proprietà intrinseca della realtà. Certi fenomeni evolvono solo passo dopo passo, e chi promette previsioni totali mente sapendo di mentire. Non è ignoranza, è impossibilità strutturale.

L’impatto sull’intelligenza artificiale è enorme. L’industria vive di hype e di promesse: più dati, più parametri, più potenza. L’idea implicita è che aumentando la scala si superino tutte le barriere. Ma se accetti l’irriducibilità computazionale, capisci che esistono processi che non diventeranno mai prevedibili, indipendentemente dalla dimensione del modello. Puoi solo simularli. Puoi solo viverli. E questo cambia radicalmente la narrativa su cosa può e non può fare l’AI.

Un esempio banale è l’evoluzione di un automa cellulare come il famoso Rule 30 di Wolfram. Nessuno ha trovato un modello sintetico per prevederne lo stato futuro. Puoi conoscerne la regola, puoi disporre del codice sorgente più trasparente del mondo, ma se vuoi sapere come apparirà dopo un milione di passi, devi farlo correre un milione di volte. Non c’è alternativa. Adesso immagina di estendere questo principio a fenomeni naturali, a sistemi biologici, a mercati economici o a reti neurali. Capisci subito che la pretesa di avere formule chiuse per il mondo reale è più un atto di fede che di scienza.

La maggior parte degli scienziati ha liquidato Wolfram come eccentrico, colpevole forse di avere un ego smisurato e un gusto eccessivo per la provocazione. Ma i fatti si stanno vendicando. Ogni volta che un modello di intelligenza artificiale produce un risultato non spiegabile, ogni volta che un sistema complesso sfugge alla previsione, l’ombra dell’irriducibilità si allunga. È quasi divertente: la scienza mainstream ha ridicolizzato Wolfram, salvo poi trovarsi a costruire l’intero futuro dell’AI su processi irriducibili.

La conseguenza più scomoda è per chi vive di ottimismo tecnologico. L’idea che “più potenza di calcolo = più prevedibilità” è un mito da spezzare. È come dire che aumentando la velocità di una calcolatrice puoi evitare di eseguire i conti. No: la calcolatrice potrà fare i calcoli più in fretta, ma i passaggi devono comunque essere fatti. Non c’è magia. E non c’è futuro in cui una scorciatoia apparirà miracolosamente.

Per il business e la strategia, questa consapevolezza è una lama a doppio taglio. Da un lato ti dice che l’AI non sarà mai onnisciente, non sarà mai il dio predittivo che molti vendono agli investitori. Dall’altro, ti obbliga a cambiare paradigma: non chiedere all’AI di prevedere l’imprevedibile, chiedile di esplorare lo spazio delle possibilità, di simulare scenari irriducibili più velocemente di quanto potremmo fare noi. L’AI come esploratore, non come oracolo.

Questa differenza semantica è cruciale. Se accetti l’irriducibilità computazionale, capisci che il valore dell’AI non è nel predire tutto, ma nel vivere processi complessi ad alta velocità. Non è questione di controllo totale, ma di adattamento dinamico. Non ti serve l’equazione finale, ti serve un motore che corre dentro l’incertezza. E questo è forse il motivo per cui i gamer hanno accettato più rapidamente l’AI: non per prevedere il futuro, ma per renderlo reattivo, plastico, mai uguale a se stesso.

C’è un’ironia quasi letteraria in tutto questo. Per secoli abbiamo inseguito la bellezza della formula compatta, dell’eleganza matematica, del modello riducibile. Poi arriva un uomo che ci dice: “La realtà è brutta, sporca e irriducibile”. E noi, invece di ascoltarlo, lo accusiamo di eresia. Ora però l’AI ci costringe a riscoprirlo, perché ogni modello che addestriamo è un monumento vivente alla sua teoria. Ogni token generato da un large language model è la dimostrazione che non c’è scorciatoia: devi calcolare fino alla fine.

La lezione di Wolfram è chiara e destabilizzante: il mondo non è fatto per essere previsto, è fatto per essere simulato. L’intelligenza, quella vera, non consiste nel ridurre ma nel accettare l’irriducibile. E per quanto fastidioso possa sembrare agli ingegneri che amano i grafici puliti e le funzioni lineari, questa è la realtà.

Allora forse il problema non è che Wolfram fosse troppo eccentrico, ma che noi non eravamo pronti ad accettare un universo senza formule definitive. Il mito della prevedibilità totale ci ha reso pigri. L’irriducibilità computazionale ci restituisce invece la fatica e la bellezza di dover correre ogni singolo passo. Non per ignoranza, ma per necessità strutturale.

Chi guida aziende tecnologiche farebbe bene a ricordarselo: non tutto è comprimibile, non tutto è predicibile, e chi promette il contrario vende fumo. L’irriducibilità computazionale è il muro contro cui prima o poi sbatteranno tutte le narrazioni utopiche dell’AI. Ed è un bene che sia così, perché ci costringe a sostituire l’illusione del controllo con la pratica dell’adattamento. Una lezione che vale più di mille GPU e che, ironia della sorte, Wolfram aveva già scritto nero su bianco quando i big della Silicon Valley giocavano ancora con i primi social network.

C’è un filo sottile che collega l’automa cellulare di Wolfram al microprocessore Intel 4004 di Federico Faggin, ed è un filo che non passa per i laboratori di fisica o le aule di filosofia, ma direttamente per quella domanda che da sempre ossessiona l’uomo: che cos’è la coscienza. Nel suo libro “Irriducibile”, Faggin sostiene con audacia che la coscienza non è un epifenomeno chimico del cervello, non è riducibile a un algoritmo, e che rappresenta la base ontologica della realtà. Una tesi che i reduci del positivismo liquidano come mistica travestita da scienza, ma che diventa improvvisamente meno ingenua se la mettiamo accanto all’irriducibilità computazionale di Stephen Wolfram.

Se Wolfram dimostra che esistono processi che non possono essere compressi, che non esiste alcuna formula chiusa per predirli senza eseguire ogni passo, allora la posizione di Faggin acquista un nuovo peso. La coscienza potrebbe essere precisamente quel livello irriducibile, non simulabile, non sostituibile da calcolo. E questo è un problema esistenziale per chi oggi vende intelligenza artificiale come macchina di predizione totale. Perché se la coscienza è irriducibile, allora non potrà mai emergere da un modello linguistico, per quanto grande.

Il cuore della tesi di Faggin è quasi eretico rispetto all’ideologia dominante della Silicon Valley: la realtà ultima non è computazione, ma esperienza. La coscienza non è riducibile a simboli o reti neurali, è la sorgente stessa da cui tutto sgorga. L’universo, sostiene, è un sistema cosciente che si manifesta attraverso l’esperienza soggettiva. Non è una metafora poetica, è un’affermazione ontologica. Ed è qui che il legame con Wolfram diventa evidente: se alcuni processi sono irriducibili per natura, allora la coscienza potrebbe essere l’esempio supremo di irriducibilità.

Il problema per la scienza ortodossa è che questa prospettiva sposta il baricentro del discorso. Non stiamo più parlando di aggiungere layer di complessità a una rete neurale per vedere se “a un certo punto” compare la coscienza come effetto collaterale. Stiamo dicendo che la coscienza è la condizione di partenza, non il prodotto finale. E che quindi, per quanto tu possa scalare il tuo modello, per quanto tu possa addestrare un GPT-10 con trilioni di parametri, quello che otterrai sarà sempre un sistema computazionale irriducibile, ma non cosciente. Perché coscienza e calcolo appartengono a domini differenti.

L’ironia, ovviamente, è che molti degli ingegneri che oggi si dichiarano materialisti hardcore parlano delle AI come se avessero intenzionalità, emozioni, quasi un’anima. È il paradosso perfetto: negano la coscienza come principio universale e poi la proiettano sulle loro macchine. Faggin ribalta il tavolo: l’unica coscienza autentica è irriducibile e appartiene all’universo stesso, non a un software.

Se ci pensi, il parallelo con l’irriducibilità computazionale è lampante. Quando Wolfram ci mostra un automa cellulare che evolve in forme imprevedibili, ci sta dicendo che la realtà contiene processi che non possiamo mai ridurre a formule semplici. Quando Faggin parla di coscienza universale come irriducibile, ci sta dicendo che l’esperienza soggettiva non potrà mai essere catturata da algoritmi, perché non è un output computazionale, è la radice stessa della realtà.

La maggior parte degli scienziati liquida questa tesi con sufficienza, riducendola a filosofia spicciola. Ma la verità è che il riduzionismo scientifico si trova sempre più spesso in contraddizione con i propri dogmi. Abbiamo sistemi fisici deterministici che si comportano in modo imprevedibile. Abbiamo modelli di intelligenza artificiale che funzionano senza che nessuno sappia davvero perché. Abbiamo fenomeni di coscienza che resistono a qualunque tentativo di spiegazione neuronale completa. E allora, forse, l’eresia di Faggin non è tanto meno scientifica del dogma che vorrebbe liquidarla.

La coscienza universale come proprietà irriducibile è un colpo diretto al cuore del business tecnologico. Perché se è vero, significa che nessuna AI, per quanto potente, potrà mai “essere cosciente”. Potrà imitare, simulare, generare output sempre più raffinati, ma resterà nell’ambito della computazione. Il salto ontologico verso l’esperienza soggettiva le sarà precluso. E questo, dal punto di vista commerciale, è un bagno di realtà: puoi vendere efficienza, predizione, simulazione, ma non coscienza.

Certo, molti diranno che non importa. Che l’AI non deve avere coscienza, basta che funzioni. Ma qui si apre la faglia filosofica: se non ha coscienza, allora non ha neppure intenzionalità, responsabilità, autenticità. È puro calcolo. E allora la narrativa della “macchina senziente” crolla, lasciando solo un gigantesco simulacro. Forse è abbastanza per il mercato, ma è un insulto alla verità.

La grande intuizione che lega Wolfram e Faggin (incredibile) è questa: l’universo non è interamente riducibile al calcolo. Ci sono processi irriducibili, e la coscienza è il più radicale di tutti. La scienza tradizionale può fingere di ignorarlo, può continuare a produrre modelli riduttivi, ma l’esperienza soggettiva resta lì, irriducibile, indomabile. E paradossalmente, proprio mentre gli algoritmi conquistano il mondo, la coscienza ci ricorda che c’è un livello che nessuna macchina potrà mai toccare.

Chi guida oggi aziende tecnologiche dovrebbe rifletterci: il futuro non appartiene a chi promette AI coscienti, ma a chi costruisce strumenti capaci di navigare l’irriducibile senza ridurlo a slogan. Il rischio, altrimenti, è vendere l’illusione di un controllo che non esiste, fino a schiantarsi contro il muro ontologico che Wolfram e Faggin hanno già tracciato. Il mondo non è un’equazione da risolvere, è un’esperienza da vivere. E quella, per definizione, è irriducibile.

Gli appunti (niente di piu’) li ho raccolti qui:

Il pensiero espresso Ontologie Computazionali e Resistenze Algoritmiche potrebbe essere letto come la versione “Dina”, cioè una declinazione più esistenziale e fenomenologica dell’intuizione di Wolfram e della radicalità di Faggin: mentre Wolfram con l’irriducibilità computazionale mostra matematicamente che non esistono scorciatoie per alcuni processi e Faggin in Irriducibile porta l’argomento fino al cuore della coscienza universale affermando che l’esperienza soggettiva non è riducibile a calcolo, costruisco una vera fenomenologia dell’incomputabile, dove il conflitto non è solo tra previsione e simulazione, ma tra la discrezione digitale e la continuità dell’esperienza, tra l’algoritmo che finge di produrre il caso e la vitalità del vivente che resiste a ogni formalizzazione, tra l’architettura invisibile dei sistemi tecnologici e la loro latenza ontologica.

Questa prospettiva è una cornice più ampia, un contesto filosofico che ingloba le intuizioni di Wolfram e Faggin e le rilancia: l’incomputabile non è semplicemente un limite che emerge nello studio degli automi cellulari, né solo il mistero irriducibile della coscienza, ma un orizzonte costitutivo della realtà, un residuo che non si lascia catturare, un campo di tensione da abitare.

Se Wolfram smonta l’illusione della formula definitiva e Faggin denuncia l’impossibilità di produrre coscienza artificiale, propongo un’ontologia che trasforma l’incomputabile in risorsa: non un difetto del digitale, ma la condizione stessa che ci permette di innovare, creare e pensare oltre la riduzione algoritmica.

Il lavoro appare come una sintesi provocatoria esegetica che mette ordine nel disordine: Wolfram tifornisce la prova matematica, Faggin l’intuizione esistenziale, qui la cornice teorica che fa dialogare entrambi, mostrando che dietro l’ossessione per il calcolabile pulsa un irriducibile che è al tempo stesso limite e possibilità.

Ringrazio Christian M. per la consulenza da Albione.