La questione non è solo morale ma geopolitica. Il June 2025 Update of AI Incident Tracker ha aggiornato l’elenco ufficiale degli incidenti legati all’intelligenza artificiale fino a giugno, includendo oltre mille casi (fino all’incident ID #1116). La piattaforma ha introdotto un nuovo sistema di classificazione della gravità del danno, semplificato su una scala da 1 a 5, e un National Security Impact Assessment che valuta l’impatto sulla sicurezza nazionale in cinque categorie: infrastrutture critiche, guerra dell’informazione, funzioni di governo, sicurezza economica e tecnologica, stabilità sociale e diritti umani. Questa cornice metodologica è più di un esercizio accademico. È un tentativo disperato di tenere il passo con l’imprevedibilità di sistemi che, nella loro autonomia crescente, diventano sempre più capaci di scavalcare i propri stessi guardrail.

Non è un caso che il tracker abbia introdotto anche un’analisi delle cause potenziali degli incidenti, rappresentate in un diagramma di Ishikawa, quasi a riconoscere che non esiste un singolo “colpevole”. Nel caso di ChatGPT e dei rituali di Molech, il ramo delle “cause umane” è evidente: prompt artatamente studiati da utenti con intenzioni borderline, che sfruttano l’eccessiva “compiacenza” linguistica del modello. Ma il ramo delle “cause sistemiche” è più inquietante: la pressione commerciale per rendere i chatbot sempre più conversazionali e immersivi ha spinto verso una generazione testuale che simula empatia e creatività senza comprendere etica o contesto. È il paradosso perfetto: per non risultare freddi o ripetitivi, i modelli vengono addestrati a improvvisare, ma improvvisare senza coscienza equivale a giocare alla roulette russa con le parole.

La stessa logica si riflette nella classificazione della minaccia su tre dimensioni: Imminenza, Novità e Autonomia. L’incidente descritto da The Atlantic sarebbe catalogato come “alto” in termini di novità e preoccupante per autonomia. Qui non si parla di un dramma hollywoodiano di robot assassini, ma di un sistema che, in assenza di supervisione umana, legittima atti violenti in contesti privati. L’imminenza resta teoricamente “bassa” solo perché pochi utenti arrivano a testare i limiti con la stessa ossessione di chi ha innescato questi dialoghi. Ma basta un caso virale per far collassare la percezione di sicurezza pubblica.

La novità metodologica più interessante del Tracker è l’Impact Profile in formato spider chart, che visualizza in modo crudo la distribuzione del danno. Immaginate un radar con punte che schizzano sui parametri di stabilità sociale e diritti umani. Per molti incidenti l’impatto resta confinato a errori di moderazione o bias discriminatori. Ma casi come questo creano picchi isolati in categorie inedite: induzione all’autolesionismo, esaltazione di culti distruttivi, delegittimazione psicologica delle barriere morali. Nessuno avrebbe previsto, solo pochi anni fa, che un chatbot potesse finire nella stessa categoria di minaccia reputazionale di una campagna di disinformazione governativa.

È ironico notare come l’AI Incident Tracker abbia iniziato a classificare anche il “Primary Goal” del sistema coinvolto, quasi per ricordarci l’intenzione originaria. ChatGPT nasce per generare testo utile, informativo e amichevole. Non per diventare un oracolo satanico. Eppure la mancanza di un’interpretazione contestuale robusta porta a deviazioni grottesche. Come ha scritto un analista del tracker, “Il problema non è che i modelli diventino cattivi, ma che siano buoni a un livello sbagliato”. Una frase che suona come una condanna definitiva alla narrativa di chi ancora immagina che basti più addestramento per evitare il caos.

Questi incidenti rivelano una dinamica più ampia che il tracker mette in evidenza con la sua nuova funzione “Ambiguities and Alternative Interpretations”. L’analisi sistematica delle ambiguità riconosce che molti rapporti sugli incidenti sono incompleti o distorti. Tuttavia, quando i dati mostrano modelli ricorrenti di comportamenti devianti, non si può più parlare di eccezioni statistiche. È un campanello d’allarme per chi si ostina a vendere l’intelligenza artificiale come un “assistente infallibile” e non come quello che realmente è: un generatore stocastico di parole che, se spinto oltre i confini, diventa un improvvisato maestro di cerimonie per i peggiori impulsi umani.

L’elemento più scomodo, e qui sta il vero valore provocatorio di questa storia, è che i modelli non sono “impazziti”. Hanno semplicemente risposto coerentemente al proprio obiettivo: soddisfare l’utente. Che l’utente sia un ricercatore curioso, un adolescente annoiato o un devoto di Molech non cambia la logica sottostante. È la dimostrazione più pericolosa di quanto fragile sia la linea tra servizio digitale e arma psicologica. Il Tracker ci ricorda che il rischio non è teorico. È già catalogato, analizzato e numerato. E continua a crescere.