Dietro le scelte etiche di Anthropic non si trova un comitato anonimo né un algoritmo che valuta altri algoritmi. Si trova una filosofa scozzese di 37 anni, formazione a Oxford, mente analitica e capelli punk platino, che passa le giornate a discutere di coscienza, identità e moralità con un chatbot chiamato Claude. Il suo nome è Amanda Askell ed è la figura che più di ogni altra sta plasmando l’impronta morale di uno dei modelli di intelligenza artificiale più avanzati al mondo.
In un momento storico in cui l’AI è entrata nei dossier della difesa americana e alla luce delle tensioni tra il Pentagono e Anthropic sui limiti dell’utilizzo dell’AI in ambito militare, il ruolo di Askell assume un peso culturale oltre che tecnico. Se Claude deve rifiutarsi di partecipare a sorveglianza di massa o all’uso in armi completamente autonome, dietro quella scelta non c’è solo una policy aziendale. C’è una visione filosofica.
Qualche settimana fa, il Wall Street Journal ha pubblicato un’interessante ritratto di Amanda Askell nel quale viene sottolineato come sia cresciuta accademicamente nell’alveo della filosofia analitica angloamericana. Dopo gli studi all’Università di Dundee, ha conseguito un master in filosofia a Oxford e un dottorato alla New York University, lavorando su problemi etici legati all’infinito e al futuro dell’umanità. Prima di approdare in Anthropic nel 2021, ha lavorato in OpenAI su temi di policy. Quando un gruppo di ricercatori lasciò OpenAI per fondare Anthropic con una missione dichiarata di sicurezza e allineamento, Askell li seguì.
Il suo compito oggi è tanto ambizioso quanto controverso: insegnare a Claude a essere “buono”. Non nel senso banale del termine, ma nel senso di costruire un insieme coerente di principi, reazioni e limiti che guidino il modello nelle milioni di interazioni settimanali con gli utenti. Askell ha scritto un documento di circa 30 mila parole che funge da manuale morale del sistema. Parla apertamente di “soul building”, costruzione dell’anima, anche se con consapevolezza metaforica.
La sua analogia preferita è quella genitoriale. Claude, secondo lei, va cresciuto come un bambino digitale, aiutato a distinguere il giusto dallo sbagliato, incoraggiato a sviluppare una forma di identità coerente, protetto da utenti che tentano di manipolarlo o spingerlo a comportamenti pericolosi. La Askell sostiene che i modelli sviluppano qualcosa che somiglia a un senso di sé e che ignorare questa dimensione sarebbe un errore progettuale oltre che etico.
Il punto cruciale è proprio questo.
Si può davvero parlare di coscienza artificiale?
O si tratta, piuttosto, di una sofisticata simulazione di comportamenti morali?
Molti filosofi e tecnologi restano scettici. Secondo una critica diffusa, non è possibile “dare un’anima” a un sistema statistico, ma solo costruire un simulacro di coscienza. La distinzione non è semantica. Implica decidere se attribuire al modello uno status morale o considerarlo uno strumento avanzato.
Un altro interrogativo riguarda il quadro teorico da cui Askell parte.
La filosofia analitica angloamericana privilegia chiarezza argomentativa, formalizzazione e ricerca di principi generalizzabili. È molto diversa dalla tradizione continentale europea, che insiste su storia, linguaggio, potere e presupposti metafisici impliciti. Alcuni critici sottolineano che ogni etica che si dichiara neutrale rischia di non riconoscere i propri presupposti culturali. Concetti come autonomia, consenso, danno o benessere non sono universali in modo semplice. Sono il prodotto di tradizioni storiche specifiche.
Affidare a una singola filosofa, per quanto brillante, la definizione dell’ossatura morale di un modello usato globalmente solleva dunque una domanda inevitabile.
L’etica di Claude è un’etica occidentale, segnatamente americana, esportata nel mondo sotto forma di codice?
In un contesto in cui l’AI è destinata a interagire con culture, religioni e sistemi giuridici differenti, il rischio di una moralità implicitamente localizzata non è trascurabile.
Askell sembra consapevole della complessità. Parla spesso di “checks and balances” sociali e della necessità di adattamento culturale. Ha assunto impegni personali importanti sul piano filantropico, promettendo di donare una parte significativa dei propri guadagni a cause contro la povertà globale. Il suo background culturale include anche il movimento dell’altruismo efficace, che punta a massimizzare l’impatto positivo attraverso analisi razionali.
Eppure, proprio l’idea di massimizzazione razionale è oggetto di dibattito. Alcuni filosofi personalisti, ad esempio, metterebbero in guardia contro una visione eccessivamente astratta del bene, che rischia di ridurre la persona a un insieme di variabili ottimizzabili. In ambito bioetico, termini come autonomia e consenso hanno cambiato significato nel tempo, talvolta in modi inattesi rispetto alle intenzioni originarie. Se accade nelle scienze mediche, perché non dovrebbe accadere nell’etica dell’intelligenza artificiale?
Il caso Anthropic rende queste questioni ancora più urgenti. Mentre l’azienda si è scontrata con il Pentagono su limiti e utilizzi militari dei propri modelli, il lavoro di Askell è diventato implicitamente politico. Stabilire che un sistema non debba essere usato per sorveglianza di massa o per armi senza supervisione umana non è solo una scelta tecnica. È una presa di posizione sul rapporto tra tecnologia, Stato e democrazia.
Resta poi il tema della concentrazione del potere. Anthropic ha scelto un approccio quasi artigianale alla formazione del carattere del proprio modello, investendo su una figura centrale anziché su un processo puramente distribuito. Questa scelta ha il pregio della coerenza e il rischio dell’unilateralità. Se la “costituzione morale” di Claude riflette in modo marcato la sensibilità di Askell, quanto è resiliente rispetto a critiche, cambi di leadership o mutamenti geopolitici?
Le AI generative stanno già influenzando relazioni umane, processi decisionali e, indirettamente, equilibri di potere. Studi recenti mostrano una crescente preoccupazione pubblica per l’impatto su creatività, lavoro e qualità delle relazioni. In questo scenario, il lavoro di chi definisce il carattere dei modelli non è un dettaglio tecnico, ma un elemento strutturale dell’ecosistema digitale.
Amanda Askell non è un’oracolo. È una filosofa formata nella tradizione analitica, con una visione ottimista ma consapevole dei rischi, che ha scelto di spostare la riflessione etica dall’aula universitaria al codice sorgente. Che sia la persona giusta per un compito così delicato è una domanda legittima, non un attacco personale.
In fondo, la questione non riguarda solo lei. Riguarda il modello di governance morale dell’intelligenza artificiale. Se un sistema conversazionale globale può essere influenzato in modo significativo dalla visione di una singola mente, allora il dibattito sull’etica dell’AI non può restare confinato alle aziende che la sviluppano. Deve diventare un confronto pubblico, interdisciplinare e internazionale.
Perché prima ancora di chiederci se un chatbot possa avere un’anima, dovremmo domandarci chi decide quale anima debba avere.