Altro che intelligenza artificiale per il bene dell’umanità. OpenAI, nata come baluardo etico contro la deriva capitalistica dell’AI, oggi pare sempre più un unicorno ben pettinato pronto per la giostra di Wall Street. Il teatrino dell’”equilibrio tra scopo sociale e ritorni per gli azionisti”, condito con acronimi rassicuranti come PBC (Public Benefit Corporation), è solo un nuovo travestimento per lo stesso vecchio spettacolo: la corsa all’oro dell’IA, dove chi ha più GPU detta le regole.

Non si è fatto attendere il ruggito del gruppo Not For Private Gain, composto da ex dipendenti, ricercatori di spessore come Geoffrey Hinton (quello che ha inventato il deep learning… e poi ha deciso di pentirsene) e altri esperti che ancora credono che le parole “etica” e “tecnologia” possano convivere senza essere un ossimoro. Con una lettera inviata ai procuratori generali di California e Delaware, i firmatari smontano pezzo per pezzo il nuovo piano di ristrutturazione presentato da OpenAI, che a detta loro, è solo un maquillage per placare le acque dopo lo tsunami legale e mediatico sollevato anche dal re degli egomaniaci, Elon Musk.

Per capirci: il problema non è che OpenAI voglia cambiare struttura. Il problema è come e perché lo sta facendo. Il piano iniziale, che prevedeva di strappare il controllo operativo dalle mani della nonprofit per consegnarlo agli investitori, era talmente sfacciato che ha generato una reazione a catena: lettere, cause legali, e una tempesta mediatica degna di una startup in odore di IPO. Allora OpenAI ha fatto un piccolo passo indietro, annunciando che sì, diventerà una Public Benefit Corporation, ma “con il controllo mantenuto dal non-profit”. Peccato che, come ben sottolineato nella nuova lettera, questa PBC sarebbe molto meno vincolata alla missione originaria, e il potere operativo della nonprofit sarebbe fortemente ridimensionato.

E qui casca l’asino: nel sistema attuale, la nonprofit ha il controllo totale sulla for-profit. Può licenziare executive, dettare la strategia, far valere gli interessi della “carta etica” anche contro i desideri degli investitori. Nella nuova struttura, questo controllo diventa nebuloso, intermediato, e soprattutto… facilmente bypassabile. La nonprofit diventerebbe semplicemente un “grande azionista”, un ruolo che nella Silicon Valley equivale a stare in tribuna mentre altri decidono le formazioni.

Ma facciamo un passo indietro per capire la posta in gioco. OpenAI è diventata il volto pubblico dell’intelligenza artificiale generativa grazie a ChatGPT, ma soprattutto grazie ai 13 miliardi di dollari di investimento da parte di Microsoft. Un investimento così titanico che persino il più ottimista degli idealisti avrebbe difficoltà a credere che Redmond lo abbia fatto solo per “il bene dell’umanità”. L’interesse è chiaro: integrare l’IA nei propri prodotti, creare vantaggi competitivi, e possibilmente… governare il futuro. E in un contesto dove l’addestramento di un modello AI di frontiera costa centinaia di milioni di dollari, la tentazione di piegare l’etica all’altare del ROI diventa irresistibile.

La transizione verso una PBC, per quanto ammantata da buone intenzioni, è quindi una mossa strategica per attrarre più capitale, assicurarsi flessibilità legale e ridurre i vincoli della governance etica. Non è un caso che il gruppo Not For Private Gain sottolinei che i poteri dei procuratori generali si basano esclusivamente sull’autorità della nonprofit. Se quest’ultima perde influenza, anche gli strumenti legali di sorveglianza si dissolvono come sabbia tra le dita.

Ma la domanda vera è un’altra: l’umanità può ancora permettersi di lasciare la guida dello sviluppo dell’IA in mano a soggetti a scopo di lucro, seppur con buone PR? Perché è qui che si gioca la partita. Non si tratta solo di chi gestisce OpenAI, ma di quale modello di governance vogliamo per tecnologie che ridefiniranno tutto: lavoro, informazione, economia, perfino il concetto stesso di verità.

La promessa originaria di OpenAI era quasi religiosa: evitare che l’intelligenza artificiale diventasse uno strumento di dominio nelle mani di pochi. Ma oggi quell’ideale sembra archiviato nel cassetto dei buoni propositi, accanto alla dieta di gennaio e ai sogni da ventenni con l’hoodie.

E allora sì, Geoffrey Hinton e compagnia hanno ragione a suonare il campanello d’allarme. Perché quando si tratta di AI, “meglio prevenire che aggiornare il Terms of Service dopo il disastro” dovrebbe essere la regola.

In fondo, come diceva il vecchio saggio al bancone del bar: “Prima ci hanno venduto la privacy per la comodità. Ora ci venderanno l’anima per un chatbot un po’ più veloce.”

Ma tranquilli, è tutto sotto controllo. C’è scritto “for benefit” nel nome.