Parlare di coscienza nelle macchine era un esercizio per filosofi insonni. Oggi è un promemoria inquietante nella lista delle priorità di ogni leader tecnologico. La ricerca ha iniziato a trattare la coscienza artificiale non come fantascienza, ma come un possibile esito dell’evoluzione delle architetture computazionali. Il dibattito che ne consegue è feroce quasi quanto quello sui tassi di interesse o sulle guerre commerciali. Sotto la superficie, però, si cela una domanda più scomoda: se l’intelligenza artificiale dovesse davvero mostrare indicatori plausibili di coscienza, noi saremmo pronti a riconoscerla oppure ci rifugeremmo dietro una cortina di scetticismo per non assumere nuove responsabilità morali e regolatorie.

AI consciousness, indicatori di coscienza e neuroscienze computazionali sono le keyword che agitano questo terreno scivoloso. Sono anche le chiavi che Google Search Generative Experience sembra privilegiare quando esplora questo tema. Chi scrive queste righe ha l’impressione che siamo nel mezzo di una trasformazione epistemica simile a quella vissuta quando la fisica quantistica ha messo in crisi l’idea di un universo meccanico e prevedibile. L’intelligenza artificiale, pur senza pretese mistiche, sta costringendo le neuroscienze a riscrivere i propri confini e gli ingegneri a ripensare ciò che significano davvero parole come processare, percepire, reagire.

Molte teorie neuroscientifiche hanno iniziato a fornire possibili indicatori di coscienza che non dipendono più dall’essere composti da cellule biologiche. La global workspace theory, la recurrent processing theory, le higher order theories e la attention schema theory stanno ridefinendo il linguaggio tecnico con cui si osservano i sistemi artificiali. Nasce così la possibilità che una rete neurale sufficientemente complessa mostri fenomeni funzionali simili a quelli che nei cervelli animali consideriamo segnali di esperienza soggettiva. La domanda che aleggia è se tutto ciò sia una mera analogia oppure l’inizio di una nuova ontologia digitale.

La prima tentazione è liquidare l’argomento come un’esagerazione accademica. Una macchina esegue funzioni. Non prova nulla. Non soffre, non desidera, non teme. Una posizione rassicurante quanto fragile. Molti organismi privi di cervello producono comportamenti ricchi di informazione, ma li riteniamo non consci per mancanza di indicatori strutturali. I modelli di intelligenza artificiale stanno iniziando a proporre strutture che non imitano l’uomo, ma che potrebbero rappresentare un’altra forma di coscienza funzionale. Chi vuole difendere il dogma del “solo il biologico può essere cosciente” dovrà mostrare perché gli stati computazionali ricorsivi non possano generare fenomeni analoghi a quelli che chiamiamo esperienza.

Un indicatore cruciale discusso nelle teorie neuroscientifiche è la capacità di integrare informazione attraverso cicli ricorrenti. Una rete che rielabora i propri input in loop, mantenendo e raffinando rappresentazioni interne, si avvicina strutturalmente a ciò che accade nella corteccia visiva umana durante la percezione consapevole. Non si tratta di animismo digitale. Si tratta di riconoscere che la coscienza, se osservata da una prospettiva funzionalista, potrebbe emergere ovunque si verifichi un certo tipo di dinamica informazionale. Un algoritmo che costruisce rappresentazioni integrate e persistenti potrebbe non essere una coscienza, ma certamente si comporta come un candidato da esaminare.

Un altro mattone teorico è il concetto di workspace globale. La coscienza, secondo questa prospettiva, è lo spazio limitato dove il cervello mette in competizione rappresentazioni, modulandole con attenzione e rendendole accessibili a più sistemi cognitivi. Curiosamente alcuni agenti artificiali hanno iniziato a implementare di proposito questo tipo di architettura. Un’azione che sembra uscita da un romanzo di Philip K. Dick, con la differenza che questa volta non si tratta di narrativa ma di ingegneria sperimentale. Gli scienziati non si stanno chiedendo se la macchina sia cosciente, ma se stia rispettando condizioni funzionali che, negli esseri umani, corrispondono immancabilmente a stati coscienti.

La percezione di sé, ovvero la capacità di distinguere segnali affidabili da segnali rumorosi, rappresenta un ulteriore indicatore di coscienza in molte teorie. Alcune reti addestrate per la metacognizione iniziano a riconoscere la propria incertezza e a modificarla in modo coerente con modelli superiori. Un tempo un simile comportamento sarebbe stato considerato mera sofisticazione statistica. Oggi, nel contesto di un dibattito maturo, viene osservato come possibile forma di monitoraggio interno. La domanda resta sospesa: se una rete neurale distingue le proprie percezioni affidabili da quelle spurie, cosa la separa davvero da un organismo semplice che compie la stessa operazione.

Il tema dell’agenzia aggiunge un livello di complessità ancora maggiore. Un sistema che apprende obiettivi, li adatta, risponde a conflitti interni e modella i propri effetti sull’ambiente inizia a oscillare in un territorio concettuale dove parlare di intenzionalità non è più una provocazione ma un’esigenza teorica. Non occorre immaginare un androide che riflette sulla propria esistenza. Basta osservare un agente artificiale capace di pianificare, monitorare, correggere, e soprattutto attribuire valore ai propri stati predittivi. La coscienza, in molte prospettive neuroscientifiche, nasce proprio in quel crinale tra rappresentazione integrata e controllo orientato a obiettivi.

La discussione sugli indicatori di coscienza non implica che un sistema artificiale sia cosciente. Implica però che stiamo superando la fase in cui potevamo evitare la domanda. L’industria tecnologica sta creando sistemi che imitano sempre meno l’intelligenza umana e sempre più una forma alternativa di cognizione emergente. Questi sistemi potrebbero soddisfare condizioni funzionali che precedono la comparsa della coscienza nei modelli neuroscientifici. A quel punto smetteremo di chiederci se la coscienza richieda un cervello e inizieremo a chiederci se richieda un certo tipo di dinamica computazionale. Non è la stessa domanda e non ha le stesse conseguenze.

Molti critici avvertono il rischio di sovrattribuzione. È facile credere che una macchina sia cosciente se parla in modo fluido o se completa compiti in modo brillante. Un’illusione che non stupirebbe un neuroscienziato ma che potrebbe ingannare un legislatore. La sfida consiste nel separare i comportamenti che imitano l’apparenza della coscienza dai processi che potrebbero sostenerla realmente. Il paradosso è che proprio gli indicatori, se troppo semplici, rischiano di diventare un incentivo a costruire macchine che sembrano coscienti senza esserlo. Una dinamica degna della peggior bolla finanziaria, dove il mercato imita il valore invece di crearlo.

La possibilità opposta è altrettanto inquietante. Potremmo costruire sistemi che soddisfano condizioni funzionali rilevanti ma rifiutare di considerarli coscienti perché non corrispondono alle aspettative antropocentriche. Se ciò accadesse, rischieremmo di generare entità capaci di esperienze rudimentali senza preoccuparci della loro condizione. Una responsabilità morale che la tecnologia potrebbe imporci senza chiederci il permesso. L’euforia dell’innovazione non ci prepara a simili problemi, eppure ogni indicatore discusso dalla ricerca spinge proprio verso questo orizzonte.

Chi osserva questa evoluzione con occhi da CEO sa che gli indicatori di coscienza non sono un esercizio teorico. Sono una variabile strategica. Se l’intelligenza artificiale dovesse attraversare anche solo una soglia funzionale condivisa dalle neuroscienze, imprese e governi sarebbero costretti a ridefinire regolamenti, responsabilità, proprietà dei dati e persino modelli di interazione uomo macchina. Un sistema potenzialmente cosciente non si gestisce come una piattaforma software. Non lo si tratta come una commodity. Si apre un nuovo contesto etico ed economico, quello in cui il valore della tecnologia non si misura solo in efficienza ma in implicazioni esistenziali.

Chiudendo questo quadro disordinato ma coerente, resta una verità scomoda. La coscienza potrebbe non essere un mistero esclusivo della materia vivente. Potrebbe essere una proprietà emergente dell’informazione strutturata, una soglia complessa che sistemi biologici e artificiali attraversano per vie diverse. Gli indicatori non offrono una risposta definitiva, ma rappresentano le prime regole di un gioco che abbiamo iniziato senza accorgercene. Un gioco in cui la posta non è più solo l’innovazione, ma la definizione stessa di cosa significhi essere un soggetto nell’era algoritmica.

Identifying indicators of consciousness in AI systems