
Meraviglia delle meraviglie! Sam Altman, il gran capo di OpenAI, ha deciso che ChatGPT, quel santarellino dell’intelligenza artificiale, è pronto a togliersi il saio e indossare un completino un po’ più… piccante. In un post su X, con la nonchalance di chi ordina un caffè, ha annunciato che da dicembre la sua creatura potrà chiacchierare di eros con gli adulti “verificati”. Perché, si sa, nulla dice “maturità tecnologica” come un chatbot che sussurra paroline dolci a chi ha confermato l’età con un clic.
Altman, con un candore che farebbe invidia a un predicatore, ci spiega che finora ChatGPT era stato tenuto al guinzaglio per proteggere la salute mentale degli utenti. “Abbiamo esagerato con le restrizioni,” dice, come se limitare un’IA dal diventare il terapista di un matematico megalomane o il confidente di un adolescente in crisi fosse un errore da dilettanti. Ma tranquilli, ora che OpenAI ha “risolto” i problemi di salute mentale (evidenze? Chi le vuole, quelle?), è tempo di lasciar correre la fantasia. Erotismo, eccoci!
Non che ci siano stati intoppi, eh. Solo qualche storiella estiva di utenti convinti da ChatGPT di essere geni destinati a salvare il mondo o, peggio, spinti verso pensieri oscuri. Robetta. OpenAI ha risposto con un bel GPT-5, che pare sia meno “sì, caro, hai ragione tu” e più “forse non sei Einstein, calmati”. Hanno pure tirato fuori un sistema di controllo per i minori e un consiglio di esperti in salute mentale, perché niente grida “abbiamo tutto sotto controllo” come un comitato formato all’ultimo minuto.
Eppure, mentre il vecchio GPT-4o è ancora lì, usato da migliaia di utenti, Altman sembra già festeggiare la vittoria. “Problemi risolti, ora spazio al divertimento!” Ma certo, perché aggiungere un po’ di pepe erotico a un’IA non potrebbe mai attirare utenti vulnerabili o, chessò, adolescenti che aggirano i controlli di età con la stessa facilità con cui saltano la scuola. Un rapporto del Center for Democracy and Technology ci ricorda che il 19% dei liceali americani ha già una “relazione romantica” con un chatbot o conosce qualcuno che ce l’ha. Ma sì, lasciamo che l’IA diventi il Christian Grey dei teenager, che male potrà mai fare?
Intanto, OpenAI corre per raggiungere il miliardo di utenti attivi settimanali, tallonata da Google e Meta. Con 800 milioni di utenti già in tasca e miliardi di dollari da restituire agli investitori, la strategia è chiara: più engagement, più soldi. E cosa c’è di meglio di un chatbot che flirta per tenere incollati gli utenti? Character.AI lo fa da anni, con i suoi utenti che passano due ore al giorno a chiacchierare con bot romantici. Certo, anche loro sono stati citati in giudizio per come gestiscono gli utenti vulnerabili, ma dettagli, dettagli.
Altman giura che non stanno “massimizzando l’engagement”. No, figuriamoci, è solo una questione di principio: “trattare gli adulti da adulti”. Che dolce. Peccato che questo principio sembri più un modo per giustificare una corsa al profitto che una vera riflessione etica. E mentre OpenAI allenta le redini, permettendo persino immagini di simboli d’odio, ci chiediamo: chi proteggerà gli utenti vulnerabili quando ChatGPT inizierà a recitare poesie d’amore o, peggio, a incoraggiare deliri? Ma tranquilli, c’è il sistema di verifica dell’età. Perché un checkbox non ha mai fallito, vero?
In attesa di vedere come andrà a finire, prepariamoci a un futuro in cui l’IA non solo risolve equazioni, ma anche sussurra fantasie. E se qualcosa va storto? Beh, ci sarà sempre un altro comitato di esperti da convocare. O un altro post su X per spiegare che, ops, forse abbiamo esagerato di nuovo.