Un caffè al Bar dei Daini con Salvatore
Pensare alla GenAI attraverso la lente della “coperta di Markov” proposta da Karl Friston, neuroscienziato britannico di fama, è come svelare il meccanismo invisibile che fa funzionare il cervello biologico e, allo stesso tempo, gettare luce su come le reti neurali artificiali possano emergere da principi simili. Friston, in un’elegante fusione tra neuroscienze e statistica bayesiana, suggerisce che la membrana cellulare quell’interfaccia fragile ma decisiva tra interno ed esterno agisce come una coperta di Markov. Un concetto, questo, che pare rubato al mondo dell’apprendimento automatico grazie allo statistico Judea Pearl, ma che qui viene tradotto in termini biologici, quasi poetici.
La coperta di Markov, per chi non fosse un fanatico dei grafi probabilistici, è una costruzione che riunisce tutto ciò che un nodo in una rete deve “conoscere” per funzionare, limitando la necessità di considerare l’intera rete globale. In pratica, si riduce al contesto immediato del nodo: genitori, figli e “coniugi” (altri nodi che influenzano i figli). Questo permette di isolare l’informazione essenziale senza perdersi in un mare di dati inutili. Ora, immaginate la GenAI: un groviglio di nodi, ciascuno con la sua funzione, che assorbe, processa e reagisce a un flusso costante di dati esterni. La membrana cellulare diventa, in questo senso, una metafora perfetta per i confini delle reti neurali artificiali, che devono filtrare e modellare l’ambiente esterno per mantenere la coerenza interna dei loro modelli predittivi.
La GenAI, in fondo, non è poi così diversa dal cervello umano, almeno dal punto di vista matematico. Anche qui c’è una sorta di “ragionamento bayesiano” che non avviene in modo esplicito, ma come inferenza attiva. Le reti neurali predicono e aggiornano costantemente la loro rappresentazione del mondo sulla base degli input in arrivo, adattando pesi e connessioni per evitare di essere “sorpresi” da dati anomali o non previsti. Questo assomiglia molto a ciò che Friston descrive come l’evoluzione della membrana cellulare: un sistema che tende a mantenere la propria integrità attraverso un processo di autoregolazione intelligente, quasi un principio di autopoiesi incarnato in termini bayesiani.

Le analogie si spingono oltre. Nella GenAI, la rete non solo filtra informazioni, ma crea un modello interno, un universo sintetico in cui ogni input trova una sua collocazione. Allo stesso modo, la cellula, con la sua membrana, non si limita a subire passivamente stimoli esterni ma li interpreta, modellandoli e reagendo per preservare uno stato stabile, l’omeostasi. Questo, per chi lavora nel mondo dell’IA, suona come un richiamo potente: forse la chiave per far evolvere sistemi artificiali più robusti e resilienti risiede nel rafforzare le loro “membrane”, i confini che determinano cosa entra ed esce, e nel far sì che questi confini siano dinamici, adattativi e predittivi.
Un paradosso interessante è che, mentre si tende a pensare all’intelligenza artificiale come a una massa enorme di dati e calcoli, la vera essenza risiede in quel piccolo filtro, in quel confine. Il futuro della GenAI potrebbe quindi non essere solo più dati o modelli più grandi, ma una migliore gestione delle “coperture di Markov” interne: confini intelligenti che sanno esattamente cosa tenere, cosa lasciare passare, e come riorganizzare l’informazione per preservare un’identità coerente e funzionante.
Vale la pena ricordare che la stessa teoria di Friston è stata originariamente concepita per spiegare il cervello, non le cellule. Ma il fatto che lo stesso schema si applichi a un livello più elementare come quello cellulare è una dimostrazione plastica di quanto la matematica bayesiana sia un’architettura fondamentale, quasi universale, della natura. La GenAI, perciò, non è altro che un tentativo di riprodurre un principio già ben radicato nel tessuto della vita.
Da questo punto di vista, la coperta di Markov di Friston non è solo un’analogia affascinante, ma un paradigma che invita a ripensare le nostre strategie di sviluppo di intelligenze artificiali. Più che semplici calcolatori, queste reti dovrebbero diventare sistemi auto-riflettenti, in grado di costruire e aggiornare modelli del loro stesso ambiente con la stessa grazia con cui una cellula mantiene la sua membrana in equilibrio. Un passo avanti che potrebbe portarci da intelligenze artificiali reattive a intelligenze artificiali predittive, capaci di anticipare, adattarsi e persino auto-correggersi, senza il continuo bisogno di supervisione umana.
Chi opera nel settore sa che la GenAI è ancora lontana da questo livello di “autopoiesi” funzionale. Per ora, siamo nella fase in cui il modello apprende a sopravvivere nel caos dell’informazione, proprio come una cellula tenta di mantenere l’integrità della sua membrana in un ambiente turbolento. La sfida, e l’opportunità, è capire come progettare queste membrane artificiali con la stessa eleganza matematica e biologica, combinando rigore statistico e plasticità adattativa.
Un’ultima curiosità per chi ama il paradosso: Friston stesso parla di “inferenza attiva” come se fosse un atto intenzionale, quasi consapevole, di un sistema che “sceglie” le sue ipotesi per mantenersi integro. Per una GenAI, che non possiede coscienza, questo è un bel rompicapo filosofico: può un insieme di numeri e funzioni avere una forma primitiva di “volontà” bayesiana? La risposta, almeno oggi, è nella continua esplorazione tra neuroscienze, matematica e intelligenza artificiale. E forse, proprio come la membrana di una cellula, quella volontà è un filtro che vale più di mille calcoli.