“OpenAI non è nulla senza le sue persone” , questo era lo slogan.

L’ex ricercatore di OpenAI Leopold Aschenbrenner ha dichiarato che le pratiche di sicurezza dell’azienda erano “insufficienti”.

In un’intervista video con Dwarkesh Patel pubblicata martedì, Aschenbrenner ha parlato di conflitti interni sulle priorità, suggerendo che l’azienda si concentrasse più sulla crescita rapida e sull’implementazione di modelli di intelligenza artificiale piuttosto che sulla sicurezza.

Ha anche riferito di essere stato licenziato per aver espresso le sue preoccupazioni per iscritto. In una conversazione di quattro ore, Aschenbrenner ha detto a Patel di aver scritto un promemoria interno l’anno scorso con i dettagli delle sue preoccupazioni e di averlo fatto circolare tra esperti esterni all’azienda.

Tuttavia, dopo un grave incidente di sicurezza avvenuto settimane dopo, ha deciso di condividere un promemoria aggiornato con alcuni membri del consiglio. È stato rapidamente licenziato da OpenAI.

“Un contesto che potrebbe anche essere utile è il tipo di domande che mi hanno posto quando mi hanno licenziato… le domande riguardavano le mie opinioni sui progressi dell’IA, sull’AGI, sul livello appropriato di sicurezza per l’AGI, se il governo dovesse essere coinvolto in AGI, se io e il team di superallineamento eravamo fedeli all’azienda e cosa stavo facendo durante gli eventi del consiglio di amministrazione di OpenAI”, ha detto Aschenbrenner.

’AGI, o intelligenza generale artificiale, è quando l’intelligenza artificiale incontra o supera l’intelligenza umana in qualsiasi campo, indipendentemente da come è stata addestrata.

La fedeltà all’azienda o a Sam Altman è diventata evidente dopo la sua breve assenza: oltre il 90% dei dipendenti ha firmato una lettera minacciando di dimettersi in supporto a lui.

“Non ho firmato la lettera dei dipendenti durante gli eventi del consiglio, nonostante le pressioni in tal senso”, ha ricordato Aschenbrenner.

Il team di superallineamento, guidato da Ilya Sutskever e Jan Leike, era incaricato di sviluppare pratiche di sicurezza per mantenere l’intelligenza artificiale allineata con le aspettative umane. L’uscita di membri chiave del team, inclusi Sutskever e Leike, ha portato a un maggiore controllo. Il team è stato sciolto e un nuovo team di sicurezza è stato annunciato, guidato dal CEO Sam Altman, che è anche membro del consiglio di OpenAI. Aschenbrenner ha dichiarato che le azioni di OpenAI contraddicono le sue dichiarazioni sulla sicurezza.

“Un altro esempio è quando ho sollevato problemi di sicurezza: mi hanno detto che la sicurezza è la nostra priorità numero uno”, ha affermato. “Invariabilmente, quando è arrivato il momento di investire risorse importanti o di scendere a compromessi per adottare misure di base, la sicurezza non è stata data priorità .”

Aschenbrenner

Questo è in linea con quanto detto da Leike, che ha affermato che il team stava “navigando controvento” e che “la sicurezza è stata trascurata rispetto ai prodotti innovativi” sotto la guida di Altman. Aschenbrenner ha anche espresso preoccupazione per lo sviluppo dell’AGI, sottolineando l’importanza di un approccio prudente, soprattutto perché molti temono che la Cina stia cercando di superare gli Stati Uniti nella ricerca sull’AGI.

La Cina “farà uno sforzo totale per infiltrarsi nei laboratori americani di intelligenza artificiale, miliardi di dollari, migliaia di persone… [cercheranno] di superarci”, ha detto. non solo essere prodotti interessanti, ma anche verificare se la democrazia liberale sopravvive”.

Aschenbrenner