Il giorno in cui OpenAI avrebbe dovuto dettare il ritmo del futuro con GPT-5, ha invece offerto uno spettacolo degno di un pitch da startup alle prime armi: grafici distorti, scale ballerine e una figuraccia che il mondo intero ha potuto osservare in diretta streaming. Proprio mentre illustravano con toni trionfalistici la presunta capacità di GPT-5 di ridurre la deception AI, ovvero la tendenza a mentire o fuorviare, il grafico mostrato sul palco faceva l’esatto contrario. Un cortocircuito perfetto tra contenuto e forma, tra messaggio e messaggero.

La scena, degna di un episodio di “Silicon Valley”, ha avuto come protagonista un bar chart in cui GPT-5, con un tasso di deception dichiarato al 50%, si mostrava graficamente inferiore rispetto a un modello o3 al 47.4%, ma con una barra più corta. Il tutto coronato da un altro assurdo: GPT-4o e o3 con numeri diversi e barre uguali. Se lo scopo era comunicare che GPT-5 capisce meglio la realtà, il risultato è stato involontariamente satirico. Più che una dimostrazione di intelligenza artificiale avanzata, è sembrata una parodia dei problemi umani nella rappresentazione dei dati.

Il CEO Sam Altman, sempre pronto a mescolare tono ironico e distacco zen, ha definito l’episodio un “mega chart screwup”. E c’è da credergli, perché il danno d’immagine, in un mondo dominato dall’apparenza numerica e dalla visualizzazione dei dati, non è affatto trascurabile. Che si tratti di una svista umana o di un errore dell’IA che li ha aiutati a costruire le slide, il problema resta lo stesso: come ci si può fidare di una tecnologia che sbaglia nel rappresentare se stessa?

Il termine “chart crime” usato dal team marketing di OpenAI per scusarsi suona più come una battuta da Reddit che una comunicazione ufficiale da una delle aziende più influenti del mondo tecnologico. Ma forse è coerente con l’attuale spirito di Silicon Valley, dove anche gli errori si trasformano in meme per mantenere alta l’attenzione e deviare il focus dal problema reale. Solo che stavolta il problema è la credibilità. E quando si parla di intelligenza artificiale generativa, la credibilità non è solo un dettaglio: è la moneta d’oro che tiene in piedi tutto il castello.

GPT-5, presentato come un balzo in avanti per l’AI alignment e la riduzione delle hallucinations, inciampa proprio sulle sue promesse principali. Un modello che dovrebbe capire meglio le sfumature della verità e dell’intenzionalità umana finisce per essere rappresentato da una grafica confusa, dove le proporzioni visive smentiscono i numeri. Per gli osservatori più attenti (e diciamolo, anche per gli investitori con un minimo di raziocinio), è un segnale di allarme.

C’è poi un altro livello di lettura, più sottile ma decisamente più inquietante. Se OpenAI non riesce a garantire l’accuratezza nella visualizzazione dei propri dati interni durante un evento altamente orchestrato, cosa possiamo aspettarci quando si tratterà di casi d’uso reali, complessi, ad alto impatto sociale o etico? L’interpretabilità dei modelli AI, già fragile, rischia di diventare una scatola nera non solo per le risposte ma anche per le metriche stesse che dovrebbero valutarle.

La narrativa ufficiale parla di “significativi progressi nella riduzione delle allucinazioni”. Ma se il giorno del lancio globale la prima allucinazione parte proprio dal PowerPoint, forse c’è ancora parecchia strada da fare. L’ironia qui non è solo una scelta stilistica: è l’unica lente possibile per digerire l’assurdo. Un’azienda che guida il mondo nella costruzione dell’intelligenza sintetica non può permettersi di sbagliare il grafico che dovrebbe dimostrare la sua superiorità epistemica. È come se un neurochirurgo dimenticasse dove ha lasciato il bisturi durante un TED Talk.

Il pubblico di riferimento di questi modelli, siano essi ricercatori, aziende, o semplici cittadini curiosi, non ha bisogno di effetti speciali visivi o di narrazioni epiche stile Marvel. Vuole trasparenza, coerenza, robustezza. Vuole vedere un modello che sa parlare e ragionare come un essere umano ma che soprattutto non mente, nemmeno nelle sue rappresentazioni grafiche.

La “mega chart screwup” rimarrà un meme. Ma dietro il meme c’è un segnale chiaro: l’hype sull’AI è ormai così saturo da non reggere nemmeno una verifica basilare di coerenza visuale. Per un’azienda che dichiara guerra alla disinformazione e lavora alla costruzione di sistemi affidabili, l’ironia è quasi insostenibile.

Nel frattempo, nella blog post ufficiale, il grafico è stato aggiornato con i numeri corretti: 16.5% di deception per GPT-5 nella sezione “coding deception”. Un valore molto diverso rispetto al 50% inizialmente mostrato. Ma il punto non è solo quanto il valore fosse sbagliato. Il punto è perché nessuno l’ha notato prima della presentazione, in un’azienda che basa tutto sulla precisione matematica, statistica, linguistica.

Che si tratti di fretta, superficialità o semplice overconfidence, la gaffe è rivelatrice. Dimostra che la corsa alla generazione perfetta rischia di trascurare la cosa più semplice: la forma è sostanza, anche (e soprattutto) quando si parla di AI. Se i grafici mentono, cosa possiamo dire delle risposte generate? Se il packaging è sbagliato, quanto possiamo fidarci del contenuto?

Il pubblico non è più composto da sprovveduti. Sa leggere, confrontare, criticare. E in un’era dove ogni pixel pubblicato è passato al microscopio dell’intelligenza collettiva, ogni errore diventa amplificato, memificato, immortalato. Se non altro, OpenAI ha regalato alla rete un nuovo caso di studio da inserire nei corsi su come non comunicare l’innovazione tecnologica.

La verità, ancora una volta, non è solo nei dati. È nella loro rappresentazione. Nella loro trasparenza. Nella loro coerenza con la realtà che pretendono di spiegare. Se GPT-5 è davvero così bravo a ridurre la deception, dovrebbe iniziare dai suoi grafici.