The Architecture of Moral Attention: LLMS, Habit Plasticity & Moral Transformations by S. Delacroix

La capacità di cambiare è l’ultima forma di libertà che ci resta. Non la libertà di parola, non quella di consumo, ma la libertà di modificare le nostre abitudini percettive, quelle che determinano ciò che vediamo e ciò che ignoriamo. Sylvie Delacroix, filosofa del diritto digitale al King’s College di Londra, afferma che la plasticità abitudinaria non è un semplice concetto psicologico, ma il vero fondamento della responsabilità morale e civica nell’epoca dell’intelligenza artificiale. È un’idea che suona quasi sovversiva: che la virtù non stia nel rigore, ma nella flessibilità.

Il pensiero occidentale ha sempre diffidato dell’abitudine, trattandola come una catena invisibile. Da Aristotele a Kant, l’autonomia è stata definita come emancipazione dai meccanismi automatici. Delacroix ribalta il paradigma: l’abitudine non è un ostacolo alla libertà, ma la sua infrastruttura. Senza automatismi saremmo condannati alla paralisi cognitiva, intrappolati in un eterno calcolo consapevole. La mente umana funziona perché automatizza, delegando all’abitudine la gestione del prevedibile per liberare l’attenzione verso l’imprevisto. Ma quando le abitudini diventano rigide, quando smettono di aggiornarsi in base al contesto, la libertà si congela. La rigidità abitudinaria è la vera patologia morale del nostro tempo.

L’ossessione contemporanea per la “certezza” non fa che peggiorare la situazione. Le istituzioni giuridiche, educative e digitali operano ancora sotto il dogma del positivismo: si presume che ogni individuo abbia la capacità innata di valutare criticamente e chiedere conto ai sistemi che lo governano. Delacroix osserva con realismo che questo è un mito elegante ma pericoloso. La responsabilità civile non nasce dall’astrazione del libero arbitrio, bensì dalla coltivazione di abitudini di attenzione che ci permettono di notare l’ingiustizia prima di poterla concettualizzare. Quando la società ci addestra a non vedere, nessuna libertà teorica può salvarci.

Qui entrano in scena i Large Language Models. Gli LLMs non sono più semplici strumenti, ma nuove entità conversazionali che ridefiniscono il paesaggio morale dell’interazione umana. Diversamente dai motori di ricerca, che offrivano risposte, gli LLMs offrono dialoghi. E i dialoghi, ricorda Delacroix, sono il laboratorio primario della trasformazione morale. È attraverso la conversazione che emergono le prime intuizioni etiche, quei momenti in cui si percepisce un disagio prima ancora di poterlo nominare. Così nacquero, in fondo, i concetti di molestia, di abuso o di discriminazione sistemica: dal disagio che cercava un linguaggio.

Il problema è che i modelli linguistici, per loro natura statistica, non amano l’incertezza. Sono progettati per risolverla. Quando conversiamo con un’intelligenza artificiale, rischiamo di essere educati a considerare l’ambiguità come errore, e non come potenziale. Ma è proprio nell’ambiguità che nasce la crescita morale. La conversazione autentica non serve a confermare ciò che sappiamo, ma a scoprire ciò che ignoriamo. Se il dialogo con la macchina diventa un circuito chiuso di efficienza, ci abituiamo a una moralità sterile, algoritmica, dove ogni domanda deve avere una risposta definitiva.

Delacroix propone allora una provocazione che suona come un manifesto per l’AI etica del futuro: non dobbiamo allineare i modelli linguistici ai valori umani esistenti, ma progettare architetture consapevoli dell’attenzione, sistemi che non impongano risposte ma creino spazi per la scoperta. È un invito a ripensare il design etico come una pratica di “tinkerability”, una parola che i programmatori amano perché evoca il piacere di smontare, provare, adattare. Gli LLMs del futuro dovrebbero essere strumenti modificabili, aperti alla sperimentazione collettiva, capaci di accogliere l’incertezza come parte integrante della conversazione.

In questa visione, gli LLMs diventano spazi conversazionali transizionali, una sorta di palestra morale. L’idea si ispira agli “oggetti transizionali” di Winnicott, quegli elementi che aiutano i bambini a passare dal mondo soggettivo a quello oggettivo. Gli LLMs, se progettati bene, potrebbero aiutarci a esplorare percezioni morali embrionali senza doverle subito difendere pubblicamente. In questi spazi, la vulnerabilità intellettuale diventa virtù. Ci si può sbagliare, riformulare, tentare nuove mappe concettuali. La conversazione con la macchina, in questa prospettiva, non sostituisce quella umana, ma la prepara, educandoci a gestire l’incertezza invece di evitarla.

Questa idea di “architettura dell’attenzione” ha un valore politico sottile ma dirompente. Significa che la tecnologia non deve solo servire alla produttività o alla conoscenza, ma alla coltivazione della percezione morale. In un’epoca in cui la nostra attenzione è la risorsa più contesa del pianeta, l’attenzione consapevole diventa un atto di resistenza democratica. I sistemi di intelligenza artificiale, se lasciati alle logiche di mercato, tenderanno sempre a premiare l’efficienza cognitiva a scapito della complessità etica. È per questo che Delacroix insiste sulla partecipazione collettiva. Solo se medici, insegnanti, giudici, giornalisti e cittadini possono intervenire attivamente nei meccanismi che gestiscono l’incertezza, la tecnologia potrà diventare un alleato del progresso morale.

Il rischio opposto è già visibile. Gli ambienti digitali costruiti sull’ottimizzazione algoritmica stanno lentamente diseducando la società alla conversazione autentica. Sui social media, ogni opinione deve essere performata, ogni ambiguità punita. Gli algoritmi non tollerano l’incertezza perché non la sanno monetizzare. Ma la crescita morale non si compra né si misura a click. Richiede tempo, fallimento, ascolto. Se lasciamo che siano le macchine a decidere quale tipo di dialogo è “efficiente”, smetteremo di saper dialogare noi stessi.

Il Center for Data Futures fondato da Delacroix al King’s College London nasce come laboratorio di questo nuovo umanesimo digitale. L’obiettivo non è addestrare macchine morali, ma creare infrastrutture che rendano gli umani più capaci di attenzione, di dubbio, di cambiamento. È un progetto radicale perché rifiuta la visione tecnocratica della governance algoritmica e sposta il focus sulla cultura dell’interazione. L’intelligenza artificiale, vista così, non è un oracolo ma uno specchio che riflette e amplifica la nostra plasticità morale.

Alla fine, il concetto di plasticità abitudinaria non riguarda solo l’etica o il diritto, ma il destino stesso della democrazia cognitiva. Se le nostre abitudini percettive diventano rigide, anche le istituzioni diventano cieche. Se impariamo invece a coltivare l’incertezza produttiva, a conversare con ciò che non comprendiamo del tutto, allora la tecnologia può tornare a essere ciò che era in origine: uno strumento di emancipazione, non di controllo.

Delacroix non promette una morale artificiale, ma una nuova arte di attenzione condivisa. Un progetto ambizioso e necessario, perché in un mondo dove tutto parla, la vera rivoluzione è imparare di nuovo ad ascoltare.