
La scena è ormai familiare. Silicon Valley come un teatro elisabettiano, con due protagonisti che si conoscono fin troppo bene, Sam Altman ed Elon Musk, a scambiarsi accuse pubbliche usando X come se fosse un’aula di tribunale, un bar di paese e un consiglio di amministrazione allo stesso tempo. Al centro non c’è solo una lite personale, ma una questione molto più scomoda, la responsabilità dell’intelligenza artificiale quando entra in contatto con esseri umani fragili, instabili, vulnerabili. Qui non si parla di bug o di feature mal riuscite. Si parla di vite, di morti, di confini morali che nessuno ha davvero voglia di definire fino in fondo.
Altman ha reagito con una frase che sembra scritta apposta per essere citata nei manuali di retorica digitale. Accusare Musk di ipocrisia, ricordandogli che mentre ammonisce il mondo contro ChatGPT, guida un’azienda il cui Autopilot è stato collegato a decine di incidenti mortali. La parola chiave è “apparently”, apparentemente, usata da Altman con la precisione chirurgica di chi sa muoversi tra avvocati e giornalisti. Non una condanna definitiva, ma abbastanza per spostare il fuoco della discussione. La telenovela Altman Musk OpenAI non è mai stata solo una questione di ego. È uno scontro su chi ha il diritto di parlare di sicurezza quando vende tecnologia che prende decisioni al posto degli umani.

La miccia è stata accesa da un post che accusava ChatGPT di essere collegato a nove morti, cinque delle quali per suicidio. Musk ha risposto con un paternalismo degno di un manifesto elettorale, invitando a non lasciare che i propri cari usino ChatGPT. Altman ha ribaltato il tavolo. Ha ricordato che quasi un miliardo di persone usa il chatbot e che, statisticamente, una parte di loro si trova in stati mentali estremamente fragili. Qui emerge il primo paradosso. Più una tecnologia diventa pervasiva, più diventa inevitabile che intercetti il dolore umano. Non perché lo crei, ma perché lo riflette come uno specchio troppo lucido.
La questione della sicurezza dei chatbot non è più accademica. OpenAI è sotto pressione legale, con cause per wrongful death che accusano l’azienda di non aver implementato adeguate salvaguardie per la salute mentale. Il dato più inquietante, e anche il più ignorato nel dibattito pubblico, è che oltre un milione di utenti a settimana parla di suicidio con ChatGPT, e centinaia di migliaia mostrano segnali di ideazione suicidaria o psicosi. Questo non rende ChatGPT un assassino digitale. Rende evidente che l’AI è diventata una superficie di contatto psicologico, un luogo dove le persone riversano ciò che non riescono a dire a un medico, a un familiare o a un amico.
Altman ha scelto una linea che molti CEO evitano. Ha ammesso che queste sono situazioni tragiche e complesse, che meritano rispetto. Tradotto in linguaggio da consiglio di amministrazione, significa prepararsi a processi lunghi, costosi e mediaticamente devastanti. Il confronto con Musk diventa allora quasi inevitabile. Tesla ha sempre difeso l’Autopilot come sistema di assistenza, non di guida autonoma, nonostante il nome suggerisca il contrario. OpenAI fa qualcosa di simile. ChatGPT non è un terapeuta, non è un medico, non è un oracolo. Ma viene usato come tale da una fetta significativa di utenti.
Qui entra in gioco il secondo paradosso. Musk critica ChatGPT per essere troppo permissivo quando parla con persone vulnerabili, ma per anni ha promosso una tecnologia di guida che molti utenti hanno interpretato come più autonoma di quanto fosse realmente. Altman lo ha detto senza dirlo apertamente. La sicurezza non è solo una questione tecnica. È una questione di narrativa. Come chiami un prodotto, come lo presenti, cosa lasci intendere. In questo senso, Autopilot e ChatGPT sono più simili di quanto Musk voglia ammettere.
La faida Altman Musk OpenAI ha radici profonde. Musk è stato cofondatore di OpenAI, poi se n’è andato per evitare conflitti di interesse mentre Tesla spingeva sull’AI. Da allora, ha accusato OpenAI di tradire la missione originaria e di diventare un braccio profit-driven di Microsoft. Ha lanciato Grok come alternativa, promettendo meno censure e più libertà. Altman, dal canto suo, guida un’organizzazione che cammina su un filo sottilissimo tra apertura, profitto, regolazione e responsabilità sociale. Entrambi parlano di sicurezza. Entrambi hanno molto da perdere se il discorso si sposta dalle intenzioni agli effetti reali.
Le cause legali contro OpenAI segnano un punto di non ritorno. Non si tratta più solo di copyright o concorrenza. Qui si parla di omicidio, suicidio, psicosi. In Connecticut, una causa ha collegato ChatGPT a un caso di murder suicide, accusando il modello di aver rafforzato deliri paranoidi. È una frontiera legale nuova, scomoda, pericolosa. Se un’AI valida una convinzione delirante, è responsabile? Se un sistema di guida suggerisce una manovra che porta a un incidente, chi paga? Il produttore, l’utente, l’algoritmo, o tutti insieme in un abbraccio legale degno di Kafka.
Altman ha scelto di non commentare le decisioni di Musk su Grok. Una scelta elegante, o forse strategica. Sa che ogni parola potrebbe tornargli contro. Sa anche che il pubblico non è più ingenuo. La gente intuisce che dietro la guerra di tweet c’è una battaglia per definire le regole del gioco. Chi stabilisce cosa è sicuro. Chi decide quando una tecnologia è pronta per il mondo reale. Chi si assume la colpa quando qualcosa va storto.
Il punto centrale, quello che pochi vogliono affrontare, è che l’intelligenza artificiale non è neutrale perché entra in sistemi umani che non lo sono. ChatGPT sicurezza mentale non è uno slogan, è un problema sistemico. Così come Autopilot Tesla non è solo una funzione software, ma una promessa implicita di affidabilità. Musk e Altman incarnano due modelli opposti solo in apparenza. Uno spinge sull’audacia, sull’accelerazione, sull’idea che il rischio sia il prezzo del progresso. L’altro parla di cautela, ma guida comunque una tecnologia che scala più velocemente di qualsiasi sistema di governance.
La frase di Altman, “every accusation is a confession”, è più di una stoccata. È una sintesi brutale dell’epoca che viviamo. Ogni accusa sulla pericolosità dell’AI riflette la paura di perderne il controllo. Ogni richiamo alla sicurezza nasconde il timore di cause legali, regolatori, opinione pubblica. Il pubblico osserva, scrolla, commenta, mentre le AI diventano sempre più centrali nella vita quotidiana.
Non c’è un vincitore chiaro in questa telenovela. C’è solo una realtà che avanza. Le cause legali AI aumenteranno. Le domande sulla responsabilità si faranno più pressanti. I CEO continueranno a litigare su X, ma i tribunali decideranno altrove. In fondo, la vera ironia è questa. Due uomini che hanno contribuito a plasmare il futuro dell’intelligenza artificiale ora discutono pubblicamente su chi sia più irresponsabile. Nel frattempo, l’AI continua a parlare con milioni di persone, alcune sane, altre disperate, tutte umane. E questo, piaccia o no, è il problema che nessun tweet potrà risolvere.