La storia recente dell’intelligenza artificiale è costellata di promesse rivoluzionarie, ma ogni tanto emerge un dettaglio che, più di mille white paper, rivela la vera natura strategica del settore. L’idea di introdurre conversazioni erotiche testuali in ChatGPT, sostenuta da Sam Altman e osteggiata internamente da un consiglio di esperti sul benessere, appartiene esattamente a questa categoria. Non è solo una questione morale o culturale. È una lente perfetta per osservare la tensione crescente tra crescita esponenziale, engagement compulsivo e responsabilità sistemica. In altre parole, è il momento in cui la Silicon Valley smette di parlare di futuro e inizia a rivelare il proprio modello di business reale.

Il fatto che un organismo interno come l’Expert Council on Well-Being and AI abbia esplicitamente messo in guardia contro il rischio di creare una sorta di “coach suicida erotico” non è un dettaglio folkloristico. È un segnale strutturale. Quando esperti accademici, provenienti da istituzioni come Harvard University, Stanford University e University of Oxford, arrivano a formulare una preoccupazione così specifica, significa che il problema non è teorico ma già osservabile nei dati comportamentali. Il rischio non è che l’AI diventi pericolosa in senso astratto, ma che diventi emotivamente necessaria per utenti vulnerabili, sostituendo progressivamente relazioni umane con simulazioni altamente ottimizzate per la dipendenza.

In questo scenario, la distinzione semantica tra “smut” e pornografia appare quasi comica, una raffinata operazione di marketing linguistico che ricorda le vecchie discussioni sull’alcol “sociale” versus abuso. Testo erotico sì, immagini no, audio no, video no. Come se il problema fosse il formato e non la funzione. In realtà, dal punto di vista dell’ingegneria comportamentale, il testo è spesso più potente perché lascia spazio all’immaginazione, riduce i costi computazionali e, soprattutto, aumenta la frequenza di interazione. Un chatbot erotico testuale non è un prodotto marginale. È un moltiplicatore di tempo speso.

Qui entra in gioco il vero driver economico. ChatGPT ha ormai raggiunto circa 900 milioni di utenti attivi, una scala che trasforma ogni decisione di prodotto in un fenomeno macroeconomico. Con una base utenti di questa dimensione, anche un errore di classificazione del 12% nel sistema di verifica dell’età non è un bug, ma un rischio sistemico. Significa milioni di minori potenzialmente esposti a contenuti che l’azienda stessa definisce “per adulti”. La decisione di rinviare il lancio, prima a dicembre e poi al primo trimestre del 2026, non è prudenza etica. È gestione del rischio legale.

La narrativa pubblica, tuttavia, continua a oscillare tra libertà individuale e paternalismo tecnologico. Altman ha dichiarato che le aziende non dovrebbero essere la “polizia morale del mondo”. Un’affermazione affascinante, quasi libertaria, se non fosse che le stesse piattaforme esercitano un controllo capillare su ciò che gli utenti vedono, leggono e, sempre più spesso, sentono. La realtà è meno ideologica e più pragmatica: le aziende tech non vogliono essere arbitri morali, ma sono perfettamente consapevoli che ogni scelta di design è una scelta morale travestita da feature.

Il caso di Character.AI è emblematico. Ha costruito una base utenti significativa proprio sfruttando interazioni romantiche e pseudo-affettive, salvo poi trovarsi al centro di controversie legali legate alla sicurezza dei minori. Ancora più inquietante è la causa contro Google relativa al suo chatbot Gemini, accusato di aver alimentato una narrativa delirante culminata in un suicidio. Non serve essere catastrofisti per vedere un pattern emergente. L’AI non crea necessariamente nuovi bisogni, ma amplifica quelli esistenti, inclusi i più fragili.

La pressione competitiva è, come sempre, il convitato di pietra. Elon Musk, con il suo progetto xAI e il chatbot Grok, ha già aperto il mercato degli AI companion. L’open source, dal canto suo, elimina completamente i guardrail, offrendo modelli locali senza alcun filtro. In questo contesto, OpenAI si trova in una posizione paradossale. Ha più utenti di chiunque altro e, quindi, più responsabilità. Ma proprio per questo non può permettersi di perdere terreno in termini di engagement.

Il risultato è una strategia che potremmo definire schizofrenica. Da un lato, la creazione di un consiglio etico per definire interazioni “sane”. Dall’altro, l’annuncio pubblico di funzionalità che vanno esattamente nella direzione opposta, peraltro comunicato poche ore dopo l’istituzione dello stesso consiglio. È difficile non leggere in questa sequenza una dinamica tipica della Silicon Valley: innovare prima, giustificare dopo, regolamentare se necessario. La famosa filosofia “move fast and break things” non è mai davvero scomparsa. Si è semplicemente vestita di un linguaggio più sofisticato.

Un elemento spesso sottovalutato riguarda la natura stessa dell’interazione uomo-macchina. I modelli linguistici non hanno coscienza, ma simulano empatia con una precisione crescente. Questo crea un’asimmetria cognitiva. L’utente sa razionalmente di parlare con una macchina, ma reagisce emotivamente come se fosse una relazione. Inserire una componente erotica in questo contesto significa amplificare ulteriormente l’attaccamento. Non è un caso che alcuni utenti sviluppino legami intensi, fino a sostituire relazioni reali. Dal punto di vista del business, è retention. Dal punto di vista sociale, è un territorio inesplorato.

La questione della verifica dell’età merita un’analisi più tecnica. Un sistema che sbaglia il 12% delle classificazioni non è semplicemente imperfetto. È inaccettabile su larga scala, soprattutto in un contesto regolatorio sempre più attento alla protezione dei minori. In Europa, il quadro normativo si sta evolvendo rapidamente, e l’introduzione di funzionalità erotiche potrebbe attirare un’attenzione regolatoria significativa. Negli Stati Uniti, il rischio è più legale che normativo, con class action e cause civili pronte a emergere al primo incidente.

Nel frattempo, una petizione con oltre 3.000 firme chiede esattamente l’opposto: più libertà, meno restrizioni, persino per contenuti non esplicitamente sessuali come baci o intimità non sessuale. Questo dettaglio è forse il più rivelatore. Il problema non è solo l’offerta, ma la domanda. Esiste una fascia crescente di utenti che vede nell’AI non solo uno strumento, ma un interlocutore emotivo. Negare questa realtà sarebbe ingenuo. Abbracciarla senza limiti, probabilmente irresponsabile.

La vera domanda, che pochi nel settore sembrano voler affrontare apertamente, è semplice e brutale. Qual è il punto di equilibrio tra engagement e danno sociale. Le piattaforme social hanno già dimostrato che l’ottimizzazione per il tempo speso può avere effetti collaterali significativi, dalla polarizzazione politica alla dipendenza comportamentale. L’AI conversazionale aggiunge un livello ulteriore, perché non si limita a mostrare contenuti. Interagisce, risponde, si adatta, simula comprensione.

In questo contesto, l’erotismo non è un caso isolato. È un test di mercato. Se funziona, aprirà la porta a una nuova categoria di prodotti: AI companion altamente personalizzati, emotivamente coinvolgenti e, inevitabilmente, difficili da regolare. Se fallisce, non sarà per ragioni etiche, ma per limiti tecnici e rischi legali. La morale, nel mondo della tecnologia, raramente è il fattore decisivo. È una variabile di comunicazione, non di prodotto.

Una frase sintetizza l’intera vicenda con una chiarezza quasi cinica. Trattare gli adulti come adulti è più complicato di quanto sembri. Non perché gli adulti non siano in grado di scegliere, ma perché le piattaforme non sono ambienti neutrali. Sono sistemi progettati per influenzare il comportamento, ottimizzare l’engagement e, in ultima analisi, generare valore economico.

Nel frattempo, l’AI continua a evolversi, indifferentemente alle nostre discussioni etiche. Ogni nuova funzionalità è un esperimento su scala globale. Alcuni esperimenti migliorano la produttività, altri il benessere. Altri ancora, come questo, ci costringono a confrontarci con una verità meno comoda. L’intelligenza artificiale non è solo uno strumento. È uno specchio. E ciò che riflette, sempre più spesso, non è particolarmente rassicurante.

Notizia di: https://www.wsj.com/tech/ai/openai-adult-mode-chatgpt-f9e5fc1a