Se state pensando di cambiare lavoro e non vi sentite sufficientemente motivati nelle vostre attuali mansioni, OpenAI ha un’opportunità che potrebbe fare al caso vostro. L’azienda che ha portato ChatGPT nelle nostre vite sta infatti cercando un nuovo “Head of Preparedness”, una figura che, detta senza troppi giri di parole, dovrà occuparsi di impedire che l’intelligenza artificiale faccia danni seri all’umanità. Stipendio? Fino a 555 mila dollari l’anno, più una quota di equity in una società valutata intorno ai 500 miliardi di dollari. Stress incluso, ferie non pervenute.
Il ruolo è stato presentato da Sam Altman con una sincerità quasi disarmante. “Sarà un lavoro stressante e ti troverai subito a nuotare in acque profonde”, ha scritto il CEO di OpenAI annunciando la ricerca di quella che definisce una posizione “critica per aiutare il mondo”. Un incipit che suona più come l’inizio di un romanzo distopico che come una job description su LinkedIn. E infatti la lista delle responsabilità è tale da far prendere fiato anche a Superman.
Il nuovo responsabile della preparedness dovrà difendere l’umanità dai rischi legati a modelli di AI sempre più potenti. Parliamo di impatti su salute mentale, cybersicurezza, armi biologiche e, già che ci siamo, anche della possibilità che le AI inizino ad addestrarsi da sole e a sviluppare comportamenti imprevisti. Tradotto vuol dire evitare che l’AI “vada fuori controllo”, ammesso che qualcuno sappia davvero cosa significhi.
Il punto interessante è che OpenAI non parla di rischi teorici o futuribili. Le preoccupazioni arrivano mentre l’intero settore lancia segnali sempre più espliciti. Mustafa Suleyman, oggi alla guida di Microsoft AI, ha detto alla BBC che se non si prova un po’ di paura in questo momento, probabilmente non si sta prestando la giusta attenzione al tema. Demis Hassabis di Google DeepMind, premio Nobel e uno dei cervelli più rispettati del settore, ha avvertito che il rischio che le AI possano “deragliare” e causare danni reali all’umanità c’è. Non sono esattamente dichiarazioni rassicuranti.
Il contesto normativo, nel frattempo, non aiuta. La regolamentazione dell’intelligenza artificiale a livello globale resta frammentata e spesso inesistente. Yoshua Bengio, uno dei cosiddetti “padrini dell’AI”, ha riassunto la situazione con una frase diventata virale: “un panino ha più regolamentazione dell’intelligenza artificiale”. Il risultato è che aziende come OpenAI, Google o Anthropic finiscono per autoregolarsi, assumendosi un ruolo quasi istituzionale senza averne formalmente il mandato.
Ed è qui che il ruolo di Head of Preparedness assume un peso quasi politico. Questa persona dovrà valutare e mitigare minacce emergenti, monitorare le cosiddette frontier capabilities e prepararsi a scenari in cui nuove capacità dell’AI potrebbero creare rischi di “danni gravi”. Altman lo dice chiaramente: stiamo entrando in un mondo che richiede una comprensione molto più sfumata di come queste tecnologie possano essere abusate e di come limitarne gli effetti negativi senza rinunciare ai benefici.
In questo scenario quindi, il nuovo Head of Preparedness non sarà solo un esperto tecnico o un risk manager. Dovrà essere un interprete della paura collettiva, un mediatore tra progresso e prudenza, qualcuno capace di prendere decisioni quando non esistono precedenti e le metriche sono ancora da inventare.
Certo, 550 mila dollari l’anno possono sembrare molti. Ma quando il tuo lavoro è evitare che l’AI faccia danni irreversibili alla società, forse non sono poi così tanti. La vera domanda peraltro non è tanto chi riterrà di candidarsi e di accettare l’offerta, quanto se un singolo ruolo, per quanto ben pagato, possa davvero bastare a contenere una tecnologia che, come abbiamo visto, corre molto più veloce della nostra capacità di comprenderla. In fondo, se oggi serve un “capo della preparedness”, forse il messaggio implicito è che non siamo così preparati come ci piace pensare.