Dopo aver ricevuto critiche da diverse parti, l’entità non profit che controlla OpenAI manterrà il controllo anche dopo la sua transizione a una società a scopo di lucro.
“Abbiamo deciso che l’organizzazione non profit manterrà il controllo di OpenAI dopo aver ascoltato i leader civici e aver intrapreso un dialogo costruttivo con gli uffici del Procuratore Generale del Delaware e della California,” ha dichiarato il presidente di OpenAI, Bret Taylor, in un comunicato. “Ringraziamo entrambi gli uffici e non vediamo l’ora di continuare queste importanti conversazioni per garantire che OpenAI possa proseguire efficacemente la sua missione di assicurare che l'[intelligenza artificiale] benefici tutta l’umanità.”
Oltre al comunicato, il CEO di OpenAI, Sam Altman, ha scritto una lettera sulla decisione, affermando che l’azienda dietro ChatGPT “non è una società normale e non lo sarà mai.
” “Siamo impegnati in questo percorso di intelligenza artificiale democratica,” ha scritto Altman. “Vogliamo mettere strumenti incredibili nelle mani di tutti. Siamo sorpresi e felici di ciò che le persone stanno creando con i nostri strumenti e di quanto desiderino utilizzarli. Vogliamo rendere open source modelli altamente capaci. Vogliamo offrire ai nostri utenti un’enorme libertà nell’utilizzo dei nostri strumenti entro limiti ampi, anche se non condividiamo sempre lo stesso quadro morale, e permettere loro di prendere decisioni sul comportamento di ChatGPT.”
L’annuncio recente di OpenAI, che ha deciso di restare formalmente una nonprofit e trasformare la sua sussidiaria a scopo di lucro in una Public Benefit Corporation (PBC), è stato accolto con la consueta fanfara da LinkedIn, TikTok tech e giornalisti embedded. “OpenAI raddoppia sull’umanità!” dicono. Sì, come no. La realtà è molto meno romantica, e molto più prevedibile. Altro che scelta etica: è stata una mossa obbligata. Hanno perso. E si sono adattati. Non perché volevano. Perché dovevano.
L’industria tech, come spesso accade, scambia i cerotti per chirurgia. Ma chi guarda il codice sorgente dell’economia dietro i comunicati, capisce subito che non c’è nessuna human-centric vision alla base di questo pivot. C’è solo l’urgenza di non implodere legalmente, finanziariamente e reputazionalmente. Perché è successo tutto questo? Perché OpenAI ha fatto marcia indietro senza ammetterlo? Perché la narrativa da “etica sopra profitto” è una farsa ben orchestrata? Per capirlo bisogna spacchettare le righe di codice normative e geopolitiche dietro il comunicato.
Il primo vincolo era legale. Il tentativo di transizione da nonprofit a for-profit puro è stato visto come un potenziale abuso di struttura fiduciaria. In particolare, sia in California che in Delaware, gli attorney general hanno lanciato segnali d’allarme: un ente nonprofit non può semplicemente convertirsi a modello for-profit per incassare capitali, se questo tradisce la mission originaria. È una violazione del diritto fiduciario. Il rischio era un’indagine, una paralisi operativa, e una pioggia di cause civili. L’unica via d’uscita? Una Public Benefit Corporation, una sorta di “zona grigia” legale che consente profitti pur mantenendo l’obbligo formale di perseguire un beneficio pubblico.
Ma la vera rottura con l’etica è avvenuta prima, con il golpe aziendale di novembre 2023. Il board, allarmato da una deriva commerciale non allineata alla missione, ha licenziato Sam Altman. Microsoft, annusando l’occasione, ha reagito nel giro di 48 ore, promettendo di assorbire lui e l’intero team. Risultato: reinstaurazione fulminea e dimissioni a catena dei veri “guardiani etici” dell’organizzazione. Da quel momento, chiunque abbia lavorato sull’alignment, sulla trasparenza e sulla sicurezza è stato marginalizzato o è uscito. Non è rimasto nessuno a impedire che OpenAI diventasse ciò che oggi è: un’impresa tradizionale con un’estetica da laboratorio accademico.
E qui viene il nodo: il modello di capped-profit (cioè ritorni limitati per gli investitori) che aveva consentito a OpenAI di attrarre capitali senza perdere lo status morale di nonprofit, era diventato un ostacolo. Con una valutazione di 86 miliardi di dollari nel 2023 e richieste di equity da parte di colossi come Microsoft, SoftBank e Thrive Capital, quel cap era economicamente tossico. Ma rimuoverlo avrebbe attirato l’attenzione della FTC, dei garanti europei sulla privacy, e di un esercito di avvocati specializzati in copyright. La mossa verso una PBC è stata quindi un compromesso: salvare la faccia, mantenere il flusso di capitale, ed evitare di scatenare la guerra legale che un full-profit avrebbe comportato.
Nel frattempo, la narrativa da “AI per l’umanità” è evaporata. OpenAI ha chiuso il codice (GPT-4, GPT-4 Turbo, “Strawberry” sono tutti black box), ha rilasciato modelli senza peer review, ha minimizzato la comunicazione sulle capacità reali delle sue AI, e ha relegato le questioni etiche a comunicati e blog post sempre più vaghi. La trasparenza non è più una priorità. L’allineamento? Una parola da usare quando serve calmare i legislatori.
Ma il vero spettacolo è su LinkedIn, dove ogni decisione viene trasformata in una sinfonia di altruismo corporate. Influencer, consulenti, marketer con badge ChatGPT Ambassador pubblicano caroselli di frasi pseudo-ispirazionali tipo “AI is love. AI is community”. In realtà, l’algoritmo social funziona esattamente come quello finanziario: più sei allineato alla narrazione dominante, più vieni premiato. Chi osa criticare OpenAI? Shadowbannato, ignorato, tagliato fuori da eventi e panel.
In sintesi: la PBC non è un modello etico. È un paracadute legale. Una strategia per evitare una valanga giudiziaria e mantenere il favore degli investitori senza finire sulle prime pagine per le ragioni sbagliate. Non è una dichiarazione di intenti. È un firewall giuridico.
Il resto è propaganda.