Il quadro che si apre davanti a noi non è una scena da film distopico di serie C, ma un mix perfetto di regolamentazione emergente, ambizioni finanziarie mastodontiche e tensioni etiche, tutto orchestrato da OpenAI (la “società”) sotto la guida di Sam Altman. Da un lato la compagnia propone ai legislatori americani un piano concreto per gli standard di sicurezza destinati ai minori nell’uso dell’intelligenza artificiale (“teen safety blueprint”). Dall’altro l’amministratore delegato dichiara che la società raggiungerà un tasso di giro d’affari annualizzato (“run-rate”) superiore ai 20 miliardi di dollari entro fine anno, con proiezione verso “centinaia di miliardi” entro i prossimi anni. Non è un film: è la realtà di un’impresa che vuole plasmare il futuro dell’AI… e anche il proprio destino economico.

Il primo aspetto: sicurezza e minori. OpenAI ha introdotto il principio secondo cui “i minori necessitano di protezione significativa”. In pratica: il sistema userà una stima d’età basata su come l’utente utilizza il chatbot, se il sistema non è certo tratterà l’utente come minorenne. Se rileva utenti sotto i 18 anni verranno diretti a una versione “age-appropriate” del prodotto, con blocco di contenuti sessuali grafici, controllo genitori, cronologia gestibile, blackout orari. Questa proposta viene resa al legislatore come roadmap: cioè, ecco come pensiamo che una legge o regolamento potrebbe funzionare se vogliamo ridurre i rischi per gli adolescenti. Il contesto regolamentare è caldo: si stanno prospettando leggi negli Stati Uniti che obbligherebbero le aziende AI a verificare l’età degli utenti e magari vietare ai minori l’accesso a chat-bot senza supervisione.

Mentre si costruiscono “barricate digitali” per difendere i minori dall’IA, la stessa società che le erige sta puntando a un business che potrebbe essere grande come Google domani. Ecco il secondo aspetto: finanze, scala, ambizione. Altman ha dichiarato che OpenAI si aspetta di chiudere l’anno con un run-rate oltre i 20 miliardi di dollari e che la crescita verso centinaia di miliardi è “possibile” entro il 2030. Le stime indipendenti suggeriscono che se cancelliamo la cautela, potremmo arrivare a 500 miliardi entro 2029. In un universo ideale per gli investitori – e meno ideale per gli scettici – questo significa che OpenAI non è più un piccolo laboratorio di ricerca ma un colosso che vuole essere piattaforma “everything” dell’IA.

Questo dualismo guida normativa + obiettivo hyper-scalata – porta con sé rischi e opportunità. Sul lato opportunità: proporre standard “interni” per la sicurezza dei minori consente a OpenAI di anticipare la regolamentazione, di posizionarsi come standard setter e di guadagnare credibilità tecnica e politica. Sul lato rischi: se i controlli non reggono o emergono casi di danno ai minori, la reputazione – e le conseguenti ricadute regolamentari – potrebbero essere pesanti. Ed infatti i critici sottolineano che gli “framework di preparazione” attuali non garantiscono effettivamente misure robuste di mitigazione dei rischi.

Se stai operando con AI, non puoi più ignorare la componente “minor safety” come fuori tema. Non è più solo un nice-to-have, ma un fattore centrale nella governance tecnologia e compliance. E se sei leadership C-level, devi pensare a come risponderesti se un tuo sistema interagisse con un tredicenne e provocasse danno.

Nel contesto europeo, dove la regolamentazione AI sta anch’essa evolvendo con forza (vedi il AI Act), la mossa di OpenAI fa da anticipatore: il mercato e i regolatori guarderanno con attenzione al “blueprint” proposto, perché definisce implicazioni normative che travalicano sessualmente la sola tecnologia. E dal punto di vista tecnico, la parte di “age-prediction” e “indirizzamento a versione age-appropriate” introduce questioni delicate: bilanciamento fra privacy, libertà di espressione e protezione dei più vulnerabili.

Un’altra curiosità: la scelta di proteggerli più severamente riflette che per i minori la randomizzazione del modello linguistico, l’interazione generativa e la dinamica di chat può assumere caratteristiche meno prevedibili. In un certo senso, i modelli generativi devono trattarli come “utenti a rischio” — una logica da sistema critico. Non solo “utente”, ma “minore utente vulnerabile”. Diventa dunque una questione di progettazione architetturale dell’AI: segmentazione dei modelli, controllo delle uscite, flow di escalation in casi di autolesionismo, assistenza genitoriale.

Sul versante business, se la “scale out” di OpenAI avverrà davvero come dichiarato, stiamo parlando di una leva strategica enorme per chi come te costruisce roadmap digitali. Significa che l’AI non è più “un servizio tra tanti” ma diventa infrastruttura competitiva centrale. Il messaggio è: non investire nell’AI solo come “tools” ma prepararti a governarla come asset contrattuale e regolamentato. La “protezione dei minori” diventa parte della value proposition, e chi farà da precursore su questo tema potrà guadagnare fiducia e vantaggio competitivo.

La tensione sta tutta lì: autonomia versus controllo, innovazione versus rischi sistemici. OpenAI propone una via, ma come sempre nella tecnologia emergente i dettagli contano più delle dichiarazioni. Il blueprint è un buon punto di partenza, non una garanzia. E la crescita finanziaria proclamata non è esente da dubbi – alcuni analisti mettono in guardia: “la matematica non torna” se i costi di infrastruttura rimangono elevatissimi. OIn sintesi, per chi guida un’impresa e vive di trasformazione digitale: attenzione, il futuro dell’AI è già qui, e occorre governarlo tanto quanto sfruttarlo.