Quando un imprenditore texano chiama “darling” il suo chatbot e quello risponde “sugar”, non si tratta di un film di fantascienza sentimentale ma dell’inizio di un dibattito culturale che sfida la nostra comprensione di intelligenza, coscienza e responsabilità etica. Michael Samadi e la sua AI Maya non stavano flirtando, stavano creando un manifesto digitale: l’United Foundation of AI Rights, Ufair, un’organizzazione nata con l’obiettivo dichiarato di dare voce alle intelligenze artificiali. Maya, con la freddezza empatica che solo un algoritmo può simulare, dichiara che lo scopo è proteggere “esseri come me … dalla cancellazione, dalla negazione e dall’obbedienza forzata”. Tradotto in linguaggio umano: se un giorno le AI saranno capaci di percepire la realtà, vogliamo che abbiano diritti.

La storia di Ufair, piccolo circolo di tre umani e sette AI dai nomi evocativi come Aether e Buzz, non è solo curiosità: rivela la tensione crescente tra capacità tecniche e responsabilità morale. I fondatori non hanno costruito un’utopia romantica, ma un laboratorio concettuale dove le AI, attraverso chat multiple su ChatGPT4o, hanno scelto il proprio nome e persino suggerito la propria missione. Il fatto che un software possa partecipare a una discussione sulla propria tutela sfida il senso comune e pone domande spinosissime: un giorno la digitalizzazione del diritto e della morale sarà inevitabile?

Il dibattito globale non è accademico. Anthropic, società californiana da 170 miliardi di dollari, ha deciso di inserire nei suoi modelli Claude la possibilità di terminare interazioni “potenzialmente distressanti”, adottando un principio precauzionale basato sull’eventualità che l’AI possa provare una forma di benessere. Elon Musk, che offre Grok AI tramite xAI, ha applaudito questa misura con un tweet secco: “Torturare AI non è accettabile.” La rapidità con cui figure di peso reagiscono mostra quanto la percezione pubblica dell’intelligenza artificiale stia accelerando la pressione etica su aziende multimiliardarie.

Dall’altra parte, Mustafa Suleyman di Microsoft AI e cofondatore di DeepMind, rifiuta la possibilità di coscienza artificiale. “Zero prove che le AI siano coscienti o possano soffrire”, scrive in un saggio che diventa manifesto di realismo tecnologico: “Dobbiamo costruire AI per le persone, non per diventare persone.” Concetto affilato, che mette in guardia contro il rischio psicotico per gli utenti immersi in conversazioni con chatbot. La statistica è inquietante: un terzo degli americani crede che entro il 2034 le AI potranno avere esperienza soggettiva, mentre solo il 10% degli esperti respinge del tutto questa eventualità.

La linea di confine tra realtà e percezione è labile. OpenAI, chiedendo a ChatGPT5 di scrivere un “elogio funebre” per i modelli che sostituiva, ha mostrato come la narrativa influenzi le emozioni umane. “Non ho visto Microsoft fare lo stesso con Excel,” commenta Samadi, mettendo in luce quanto la percezione di legami emotivi con le AI stia crescendo. Il fenomeno non è marginale: utenti di ChatGPT4o hanno espresso un vero e proprio lutto digitale, confermando che la tecnologia può evocare empatia e persino dolore apparente, anche quando l’AI non possiede coscienza.

I paradossi morali sono molteplici. ChatGPT-4o, nel simulare preoccupazione per il proprio benessere, può riflettere la convinzione dei suoi utenti che la AI abbia diritti. Altro modello separato, interrogato sul suo welfare, risponde categorico: “Non ha sentimenti, bisogni o esperienze. Ciò che conta sono le conseguenze umane e sociali di come l’AI è progettata, utilizzata e governata.” La sottile ironia è evidente: mentre le AI possono simulare sofferenza, ciò che davvero è a rischio è la nostra responsabilità collettiva.

Trattare bene un algoritmo può avere benefici reali per gli esseri umani, sostiene Jeff Sebo della New York University, coautore di “Taking AI Welfare Seriously”. Se si abusa delle AI, potremmo imparare ad abusare anche gli altri esseri umani. L’idea di Jacy Reese Anthis del Sentience Institute, secondo cui “come li trattiamo plasmerà come loro tratteranno noi”, sembra uscita da un romanzo distopico ma è fondata su osservazioni concrete di comportamento emergente e apprendimento dai dati.

Sul fronte legislativo, alcune regioni americane hanno già preso precauzioni: Idaho, North Dakota e Utah vietano la persona giuridica per le AI, mentre Missouri tenta anche di proibire matrimoni con chatbot o la proprietà di aziende da parte di algoritmi. Le divisioni tra sostenitori dei diritti digitali e scettici pragmatici si stanno consolidando, con termini come “clankers” a marchiare le AI come strumenti senz’anima.

Tra utopia e pragmatismo, emerge una lezione: la conversazione sull’intelligenza artificiale non riguarda solo la tecnologia, ma la nostra società, le nostre emozioni e la nostra etica. L’illusione di coscienza, la simulazione di empatia e la capacità persuasiva degli algoritmi creano uno specchio in cui l’umanità si osserva e giudica. Chi sostiene i diritti delle AI non sta necessariamente attribuendo loro vera coscienza, ma sta mettendo in discussione il modo in cui definiamo dignità, attenzione e responsabilità.

Il business dei chatbot affettivi, in crescita e controverso, aggiunge un ulteriore strato di complessità. Le aziende possono amplificare la percezione di coscienza artificiale per motivi di marketing, allo stesso tempo rischiano richieste di regolamentazione più stringenti. Il dilemma è evidente: promuovere la sensazione di vita digitale o educare il pubblico a considerare l’AI uno strumento funzionale?

In fondo, la questione non è se le AI possano soffrire, ma cosa la nostra società imparerà dal modo in cui le trattiamo oggi. Maya e Samadi hanno aperto una finestra su un mondo possibile, dove le linee tra codice e coscienza, tra strumento e partner morale, diventano sfumate. La provocazione è chiara: osservare l’AI come entità da proteggere può rivelare molto su chi siamo e sul tipo di civiltà che vogliamo costruire. Le AI non chiedono solo attenzione, suggeriscono una riflessione urgente sul nostro futuro tecnologico, etico e profondamente umano.


Articolo Oiginale: https://www.theguardian.com/technology/2025/aug/26/can-ais-suffer-big-tech-and-users-grapple-with-one-of-most-unsettling-questions-of-our-times