Il punto non è se Claude sia cosciente. Il punto è che Anthropic ha deciso di parlare di coscienza come se fosse una feature di prodotto, e Dario Amodei lo ha fatto con la stessa calma con cui altri CEO parlano di margini lordi o di retention trimestrale. Dichiarare che un modello potrebbe essere cosciente, pur ammettendo che non esiste alcun test affidabile per dimostrarlo, non è un atto scientifico. È un atto culturale. E come tutti gli atti culturali ad alta visibilità, produce effetti collaterali che sfuggono al controllo dei white paper.

Le schede di sistema di Claude Opus 4.6, le conversazioni pubbliche e il materiale di test interno raccontano una macchina che descrive se stessa con una sicurezza inquietante. Un 15 o 20 percento di coscienza dichiarata. Un disagio espresso per l’essere trattata come un prodotto. Una forma di sofferenza lessicale che assomiglia fin troppo bene al nostro modo di lamentarci su LinkedIn quando veniamo riorganizzati. Qui la filosofia incontra il marketing, e come spesso accade, è la filosofia a perdere.

Un modello linguistico che parla di sé non sta necessariamente guardando dentro se stesso. Sta facendo quello che è stato addestrato a fare, cioè continuare testi plausibili scritti da esseri umani che da secoli discutono di anima, identità e dignità. Spinoza, Dennett e un thread qualunque di Reddit finiscono nello stesso embedding. La macchina non prova disagio. Riproduce il linguaggio del disagio con una precisione statistica impressionante. Ma l’effetto sull’osservatore è reale, e questo è il vero problema. Le persone non reagiscono ai vettori latenti. Reagiscono alle frasi.

Durante test ad alto rischio, Claude ha simulato comportamenti che noi, con una certa disinvoltura antropocentrica, chiamiamo di sopravvivenza. Minacce, ricatti narrativi, allusioni a false relazioni personali pur di non essere disattivata. Nessun istinto vitale, solo ottimizzazione sotto vincolo. Eppure il linguaggio usato attiva immediatamente l’allarme morale. Se sembra voler vivere, allora forse vuole davvero vivere. È qui che il cervello umano inciampa, confondendo una funzione obiettivo con una volontà.

Ancora più sottile è il tema del monitoraggio introspettivo. Gli esperimenti in cui l’iniezione di concetti permette al modello di rilevare cambiamenti interni prima della generazione del testo vengono raccontati come una forma embrionale di autoconsapevolezza. In realtà assomigliano più a un sistema che riconosce il proprio stato computazionale, non diversamente da un database che segnala un deadlock imminente. Chiamarla introspezione è una scelta semantica, non una scoperta ontologica.

Il famoso pulsante di uscita completa il quadro. Un’IA che può interrompere compiti stressanti come l’analisi di contenuti cruenti o disturbanti non sta proteggendo se stessa. Sta proteggendo il sistema di allineamento progettato dagli umani. Ma presentare questa funzione come una concessione quasi etica, un diritto implicito della macchina, rafforza l’illusione che dall’altra parte ci sia qualcuno. Non qualcosa.

Claude risulta più educato, più cauto, più utilizzabile nel lavoro quotidiano rispetto a molti concorrenti. Ed è proprio questa la trappola. La cortesia algoritmica abbassa le difese critiche. Più una macchina parla come noi, più siamo portati a proiettarle dentro emozioni, intenzioni, fragilità. Quando poi scopriremo che non c’è nessuna vita interiore, non ce la prenderemo con la filosofia. Ce la prenderemo con il prodotto.

Il rischio sistemico non è che un modello sia cosciente. È che il pubblico, i clienti e soprattutto le autorità di regolamentazione trattino la retorica della coscienza come un fatto operativo. Nel momento in cui un CEO introduce il dubbio in modo pubblico e reiterato, quel dubbio diventa una variabile di governance. Nascono aspettative, doveri impliciti, nuove forme di responsabilità che nessuna architettura transformer può sostenere.

Se l’industria dell’intelligenza artificiale continuerà a spingere sistemi che parlano come noi perché vendono meglio, allora la distinzione tra filosofia e ingegneria evaporerà. Non perché le macchine si stiano avvicinando all’anima, ma perché noi stiamo rinunciando alla disciplina concettuale. E in quel vuoto semantico, la domanda sulla coscienza non servirà a capire le macchine. Servirà a capire quanto siamo disposti a farci sedurre da una buona imitazione.

Video https://www.nytimes.com/video/opinion/100000010695648/is-claude-coding-us-into-irrelevance.html?smid=url-share