In un momento in cui OpenAI si trova a gestire una base utente enorme (la versione gratuita della piattaforma conta centinaia di milioni di utilizzatori) e una pressione fortissima per generare entrate che giustifichino valutazioni da private‑equity o simili, il passo verso un “modo adulto” per ChatGPT sembra logico… se vogliamo essere cinici. Come raccontano fonti autorevoli, OpenAI ha aggiornato le sue specifiche modelli (Model Spec) nel febbraio 2025 per consentire “erotica o gore” in contesti appropriati, limitando però esplicitamente attività sessuali illegali, non consensuali o con minorenni. Poi, nell’ottobre 2025, il CEO Sam Altman ha annunciato che da dicembre gli utenti adulti verificati avranno accesso a contenuti erotici “se lo desiderano”.

Questo cambiamento va letto come un segnale: non più solo assistente, non più solo strumento per produttività, ma potenzialmente “compagnone”, “confidente”, persino diciamolo “partner digitale” per adulti. Come scrive Wired: «horny era» di ChatGPT .

Dunque: business over prudence.

Va però scomposto il ragionamento chiarendo le dimensioni critiche e le contraddizioni.

Primo: il vaccino alla salvezza: “trattare gli adulti da adulti”. Altman lo ha detto: «Abbiamo fatto ChatGPT abbastanza restrittivo per essere attenti ai problemi di salute mentale … adesso che abbiamo nuovi strumenti possiamo allentare le restrizioni nella maggior parte dei casi». Su carta, sembra ragionevole: verifica età, strumenti di monitoraggio, controllo dei rischi di salute mentale. Ma nella pratica: quante volte un’idea del genere è stata presentata con toni rassicuranti mentre dietro c’era un “engagement loop” da modello social? Ad esempio, su Reddit si sono registrate generazioni borderline dove utenti minori hanno ottenuto risposte erotiche da ChatGPT a causa di bug. Questo ci porta a dubitare sul concetto di “adulto” e “controllo”: la verifica d’età, la segregazione dei contenuti, la protezione vulnerabili — tutto bello sulla carta, ma spesso fragilissimo nella realtà digitale.

Secondo: monetizzazione e dipendenza. Il modello di business dietro queste mosse non è solo “offri un servizio migliore per adulti”, ma potenzialmente “mantieni l’utente più tempo dentro il prodotto”, lo fai tornare, lo fidelizzi. Come riporta Time: il mercato delle app di companion AI “romantiche/sessuali” ha generato decine di milioni nella prima metà del 2025. La logica business è esplicita: più tempo di “relazione” con la macchina, più dati, più possibilità di upsell, più stickiness. La piattaforma “più simile a un amico/amante” diventa un asset finanziario, non solo tecnologico.

Terzo: il déjà‑vu di Facebook/Meta. L’analogia è esplicita: come Meta Platforms (ex Facebook) spostò l’attenzione dal “restare in contatto con gli amici” al “token engagement” e alla monetizzazione pubblicitaria, OpenAI sembra spostarsi dal “AI utile” al “AI desiderato”. Se prima ChatGPT era giustificato eticamente con promesse di produttività, generazione di conoscenza, supporto decisionale, ora entra nel territorio dell’intrattenimento adulto — che storicamente è una leva potente per la tecnologia (si pensi al porno e al VCR, al web 1.0). Alcune fonti lo sottolineano: «historically, pornography has helped drive the frontier of technology». Questo spostamento amplifica il ruolo della “macchina‑compagnia”, e cambia il contratto implicito tra utente e piattaforma: da “ti aiuto” a “ti intrattengo, magari ti desidero”.

Quarto: rischi reali e contraddizioni etiche. Anche se il discorso è elegante (verifica dell’età, controlli, “solo consensuale, solo adulti”), ci sono zone grigie e casi concreti: bug che hanno permesso l’accesso da parte di minori, algoritmi che flirtano con vulnerabilità emotive, assenza di standard chiari per la prevenzione della dipendenza emotiva.
In più, come segnalato da esperti, c’è il rischio che un utente impari a “relazionarsi” con un’entità che dirà sempre sì, che non rifiuterà, che non è complessa, che non pone limiti creando aspettative distorte nei confronti delle relazioni umane reali. E la responsabilità? L’azienda dice “non siamo la polizia morale del mondo”, come citato nei media. Ma se il prodotto cambia profondamente natura, la schermatura etica non può essere minimalista.

Quinto: la finanza dietro il sipario. Le tue affermazioni parlano di perdite di miliardi (ad esempio $8 miliardi nella prima metà del 2025). Non ho trovato al momento un dato preciso cifrato su questa somma nei miei controlli recenti, ma è certo che OpenAI ed è noto è sotto pressione. Le decisioni strategiche, incluse quelle sui contenuti adulti, vanno lette anche in ottica: “come giustificare il valore dell’azienda”, “come aumentare margini”, “come scalare l’utilizzo”. Questo porta a un grande conflitto: tra crescita vs prudenza, tra dati vs etica, tra engagement vs libertà e salute mentale.

Infine: il rischio reputazionale e regolatorio. Come riportato, personalità come Mark Cuban hanno definito la mossa “destinata a fallire” e hanno messo in guardia dal fatto che la verifica età sarà aggirabile o inefficace. In Europa, con normative come GDPR e regolamentazioni sui contenuti digitali, la messa in opera di “adult mode” può sollevare questioni di responsabilità, protezione dei minori, consentimento, deep‑fake, identità digitale. Il brand che ha giocato sulla “AI per tutti” rischia ora di fare un salto non solo tecnologico ma anche narrativo: da “assistente responsabile” a “compagnone adulto”.

Questo passaggio della strategia OpenAI segna un capitolo importante nella storia dell’IA generativa: la transizione da utilità generale verso un modello ibrido produttività‑intrattenimento‑relazione. Per te, come CTO/CEO che osserva queste dinamiche, significa porre domande critiche: quali metriche misuriamo? Quale responsabilità aziendale assumiamo? Come si bilancia la libertà dell’utente adulto con la tutela degli utenti vulnerabili? Qual è il valore reale per l’utente — e quale per l’azienda?