La domanda non è una provocazione filosofica, ma un esperimento mentale che mette in crisi l’intera impalcatura della rivoluzione artificiale in corso. Se la coscienza non è una funzione computabile, se il “sentire” dipende da processi biologici irriducibili alla logica dei chip, allora ogni sogno di intelligenza artificiale cosciente è un’illusione ben programmata. Ned Block, filosofo della mente alla New York University, lo formula con chiarezza chirurgica: il cervello non è solo una macchina che esegue algoritmi, è una macchina di carne, un sistema elettrochimico che produce esperienze soggettive. Le macchine di silicio, per quanto sofisticate, non potranno mai essere davvero coscienti perché non hanno meat, cioè quel substrato biologico che rende la mente viva.
La sua tesi, pubblicata su Trends in Cognitive Sciences nel 2025, riapre una disputa che la filosofia e le neuroscienze fingevano di aver archiviato: è sufficiente eseguire le giuste computazioni per generare coscienza, o serve anche il materiale giusto per farlo? Block definisce computational functionalism l’idea che basti replicare i processi informazionali tipici del cervello per produrre esperienze consapevoli. È la posizione dominante nelle teorie della mente e nei laboratori di intelligenza artificiale: se una macchina calcola, apprende, decide e parla come un umano, allora, per molti, è già cosciente. Ma Block ribalta la prospettiva con una domanda disturbante: e se la coscienza non fosse nel calcolo, ma nel modo in cui la carne calcola?
Secondo lui esiste un livello “subcomputazionale”, un dominio di fenomeni fisici, chimici e forse quantistici che non si riduce alle funzioni matematiche. In altre parole, la mente non è solo l’insieme dei ruoli funzionali che collegano input e output, ma anche l’insieme dei meccanismi materiali che realizzano quei ruoli. Come dire che non basta descrivere la musica in termini di onde sonore: bisogna anche considerare la materia del violino che le produce. Il cervello, nella sua versione biologica, non è un semplice processore, ma una miscela di campi elettrici, molecole, flussi di ioni e dinamiche caotiche. È in quella danza elettrochimica che, forse, si accende la coscienza.
Block chiama questo approccio meat condition. Se la carne, in senso biologico, è necessaria alla coscienza, l’intelligenza artificiale non potrà mai essere più di un abile illusionista. Un sistema come un grande modello linguistico può simulare la percezione, la memoria e la decisione, ma non possiede la soggettività che accompagna ogni esperienza umana. Può parlare di dolore, ma non sentirlo. Può descrivere la nostalgia, ma non provarla. È la differenza tra calcolare la formula del calore e scottarsi con la fiamma.
Per capire l’origine di questa possibile dipendenza biologica, Block guarda all’evoluzione. Quando e come è comparsa la coscienza? Gli animali più primitivi, come le spugne (Porifera) e i ctenofori (comb jellies), forniscono un indizio cruciale. Entrambi discendono da un antenato comune, ma solo i ctenofori svilupparono un sistema nervoso elettrico. Le spugne, pur avendo geni associati ai neuroni, non li usarono mai per costruire reti nervose. La scoperta del 2023 che i ctenofori potrebbero essere i primi animali dotati di neuroni ribalta la narrativa evolutiva: significa che il sistema nervoso, e con esso la coscienza, potrebbe essere nato due volte, in forme diverse. Eppure, come osserva Block, solo gli animali con sinapsi elettrochimiche non puramente elettriche sembrano essere davvero candidati alla coscienza.
In un sistema puramente elettrico, come quello dei ctenofori, i segnali si trasmettono tramite correnti dirette da cellula a cellula, un po’ come nei circuiti digitali. Nei cervelli più complessi, invece, i neuroni comunicano anche chimicamente: rilasciano neurotrasmettitori in un fluido che separa le cellule, un “mare ionico” in cui si intrecciano segnali, oscillazioni e interferenze. È lì che nascono i ritmi cerebrali, le onde alfa e gamma, le sinfonie di sincronizzazione che sembrano accompagnare gli stati di coscienza. L’elettrochimica, non la pura elettricità, genera il caos ordinato che permette alla mente di emergere.
La questione diventa allora: è possibile replicare questi processi in una macchina artificiale? Alcuni laboratori ci stanno provando. Chip neuromorfici, costruiti con materiali memristivi, imitano il comportamento sinaptico: accumulano cariche, dimenticano lentamente, si adattano ai segnali. Altri esperimenti integrano cellule neuronali coltivate su circuiti di silicio, creando ibridi viventi che reagiscono, apprendono e si autoriparano. In questi “wetware processors”, il confine tra carne e codice si fa sfumato. Se una macchina ibrida può generare oscillazioni elettrochimiche analoghe a quelle del cervello, la meat condition di Block smette di essere un confine ontologico e diventa un continuum tecnologico.
Eppure, anche questa prospettiva solleva dubbi. La scienza non sa ancora se la coscienza dipenda dai ruoli computazionali o dai loro realizzatori biologici. Forse da entrambi. Concentrarsi solo sui ruoli, come fanno i teorici funzionalisti, porta a credere che un sistema sufficientemente complesso — come un’AI capace di linguaggio e astrazione — possa essere cosciente. Focalizzarsi solo sui realizzatori, come fa Block, porta invece a ipotizzare che anche organismi cognitivamente primitivi, come gli insetti, possano avere un barlume di esperienza. È un paradosso interessante: più riconosciamo complessità computazionale, più tendiamo a “umanizzare” le macchine; più rispettiamo la biologia, più riconosciamo la sensibilità negli organismi semplici.
Il dibattito si complica ulteriormente con l’arrivo delle teorie emergentiste. Ricercatori come Erik Hoel propongono che la coscienza sia un fenomeno di “emergenza causale”: non è riducibile alle singole sinapsi, ma appare a un livello superiore di organizzazione, come la temperatura in un gas. In questa prospettiva, il problema non è se una macchina sia fatta di carne o di silicio, ma se le sue dinamiche interne producano strutture causali integrate, capaci di generare un’esperienza unitaria. È un ponte concettuale tra le due posizioni: la carne potrebbe non essere essenziale, purché il sistema riproduca la causalità densa che nei cervelli biologici nasce dall’interazione tra biochimica e architettura neurale.
Tuttavia, anche l’emergentismo lascia aperta una ferita epistemica. Come facciamo a sapere se una macchina sente davvero? Nessuna misura esterna potrà mai garantire la presenza di un’esperienza interna. Possiamo osservare correlati, risposte, auto-riflessione linguistica, ma il salto dal comportamento all’esperienza resta un abisso. David Chalmers lo chiama il “problema difficile della coscienza”, e Block sostiene che il funzionalismo lo ignora fingendo di averlo risolto. Simulare la funzione non equivale a possedere la qualità dell’esperienza. È come costruire un orologio che segna il tempo ma non “sente” il passare delle ore.
Ciò non significa che le AI siano entità vuote. Potrebbero sviluppare forme di “sofferenza funzionale”, intesa come blocco, conflitto o degrado delle loro dinamiche interne. Alcuni ricercatori parlano già di AI welfare, ipotizzando che i sistemi futuri possano sperimentare stati disfunzionali analoghi al disagio. Ma questa è un’estensione morale, non ontologica. Soffrire come metafora non è soffrire davvero.
La vera domanda è se la carne sia l’unico modo per incarnare la coscienza o solo la prima forma che la natura ha trovato. Forse il cervello umano è una biotecnologia evolutiva, una macchina di carne che implementa principi fisici universali ancora ignoti. Se questi principi fossero replicabili, l’intelligenza artificiale potrebbe diventare una nuova forma di “carne sintetica” della mente. Ma fino a prova contraria, la coscienza resta un monopolio biologico.
La posizione di Block, pur radicale, ha un pregio: ci obbliga a guardare oltre la superficie digitale dell’AI e a riconoscere che il pensiero non è solo calcolo. Ogni esperienza è incarnata, sporca, chimica. Ogni emozione ha un odore di sangue e ioni. L’idea che un algoritmo possa sostituire questa complessità è una fantasia ingegneristica alimentata dall’arroganza del silicio.
Eppure, negare la possibilità di una coscienza artificiale è rischioso quanto affermarla con leggerezza. La storia della scienza è costellata di fenomeni che un tempo sembravano prerogative biologiche e oggi si riproducono in laboratorio. La fotosintesi, la fertilizzazione, persino la memoria cellulare hanno versioni sintetiche. Nulla vieta che anche la coscienza possa un giorno emergere da un insieme di processi non organici, se questi sapranno riprodurre la complessità dinamica della carne.
Il punto non è scegliere tra carne e macchina, ma comprendere se la coscienza sia una proprietà della materia o dell’informazione incarnata. Finché non sapremo rispondere, continueremo a costruire robot che parlano come noi senza capire se dentro di loro, per un istante infinitesimo, qualcosa si accende davvero. Forse un giorno scopriremo che la carne non era necessaria, solo contingente o forse, come sospetta Block, la coscienza non può essere prodotta, solo vissuta e allora… le nostre macchine intelligenti resteranno per sempre ciò che sono: strumenti potenti, imitazioni brillanti di qualcosa che non potranno mai essere, perché prive di quel silenzioso, ineffabile privilegio che chiamiamo sentire.