Siamo nel 2025 e ancora ci stupiamo che un chatbot inventi citazioni? È quasi tenero. Ma questa volta la gaffe ha il sapore dell’imbarazzo legale, perché non si tratta dell’ennesimo studente pigro che copia e incolla da un assistente AI generativo: qui parliamo di un’aula di tribunale, una causa per violazione di copyright da parte di Concord Music Group contro Anthropic, una delle startup più chiacchierate della Silicon Valley, che ha fatto del modello Claude la sua punta di diamante nell’arena dell’intelligenza artificiale generativa.

E invece. Una testimone dell’azienda, nel corso della deposizione, cita un articolo che dovrebbe supportare la tesi difensiva di Anthropic. Solo che – piccolo dettaglio – quell’articolo non è mai esistito nei termini indicati. Titolo sbagliato. Autori sbagliati. Una citazione costruita come un castello di sabbia su una spiaggia di bias algoritmici. Il risultato? Una figuraccia da manuale, e una dichiarazione ufficiale dell’avvocato di Anthropic in cui si cerca di minimizzare l’errore, incolpando – ovviamente – l’AI. Cattiva Claude.

Se fosse una barzelletta da bar inizierebbe così: “Un avvocato, un chatbot e una startup da miliardi entrano in un tribunale…”

Ma non è una barzelletta. È una questione seria. E sintomatica.

La parola chiave, qui, è hallucination. Termine tecnico ormai inflazionato, ma che continua a essere la bestia nera dell’AI generativa. Quando un modello come Claude – o il suo cugino più noto, ChatGPT – non sa la risposta o non ha accesso a una fonte reale, non dice “non lo so”. S’inventa. Con un tono sicuro, autorevole, perfino accattivante. Ti dà ciò che vuoi sentirti dire, ben formattato, ben confezionato, con tanto di virgolette e autore. Peccato che sia tutto falso. Ma il cliente ha chiesto una citazione legale ben formattata, mica la verità.

E il peggio è che nessuno se n’è accorto prima che finisse nei verbali. Perché la forma vince ancora sulla sostanza. Perché l’automazione della fiducia è diventata la nuova religione del digitale. Perché anche gli avvocati – soprattutto loro – hanno cominciato a delegare la due diligence a un algoritmo “che tanto è più veloce”.

Ora, immagina la scena: un paralegal fa una googlata veloce, trova un articolo che “suona giusto”, lo passa a Claude chiedendogli di sistemare la citazione. Claude esegue, inventando titolo e autori, come uno studente impreparato che deve riempire una bibliografia all’ultimo minuto. Nessuno verifica. Si presenta in tribunale. E tutto esplode.

Dietro questa farsa c’è una verità imbarazzante: le AI generative sono ancora trattate come oracoli infallibili, quando dovrebbero essere trattate come stagisti geniali ma profondamente inaffidabili. Uno stagista che ha letto tutta Wikipedia, ha memorizzato miliardi di testi, ma che – quando non sa una cosa – preferisce inventarla piuttosto che dire “boh”.

Nel frattempo, il caso Concord Music Group contro Anthropic resta sul tavolo. Una causa che potrebbe diventare una delle più importanti nella storia del diritto d’autore dell’era AI. Perché il nodo è chiaro: Claude ha “letto” – cioè processato, ingurgitato, digerito – milioni di opere protette da copyright per diventare così “intelligente”. Ma a quale prezzo? E con quale autorizzazione?

In questo scenario, il fatto che lo stesso Claude si sia poi incasinato creando una citazione falsa nella sua autodifesa è un paradosso ironico degno di un romanzo post-cyberpunk.

La difesa di Anthropic ora si trova davanti a un problema duplice: tecnico e reputazionale. Perché se sei l’azienda che vuole convincere il mondo che la tua AI è “costruita in modo responsabile”, non puoi permetterti che quella stessa AI falsifichi citazioni legali davanti a un giudice. È un po’ come se un chirurgo plastico si presentasse al congresso mondiale di medicina con la faccia rifatta male da un concorrente coreano.

Eppure, qui siamo. Con la sacralità del tribunale invasa da una citazione immaginaria. Con la difesa costretta a confessare: “È stato il bot, vostro onore”.

Lo scandalo non sta tanto nell’errore, ma nel fatto che l’errore sia passato inosservato fino al momento clou. Nessuno ha alzato un sopracciglio. Nessuno ha googlato per confermare. Perché? Perché era “ben formattato”. Perché l’ha detto l’AI. Perché ci stiamo abituando all’idea che l’intelligenza artificiale sia più precisa, più puntuale, più affidabile dell’umano.

Questa storia è un’illustrazione perfetta della fragilità epistemologica dei modelli LLM. E se pensi che la parola sia troppo accademica, traduco: non sanno distinguere il vero dal falso. Sanno solo generare cose che “sembrano vere”. E tanto basta, finché qualcuno non ti chiama a rispondere in tribunale.

Nel frattempo, Claude continua a evolversi, ad aggiornarsi, a ricevere milioni in investimenti, mentre la Silicon Valley si contorce tra entusiasmi e paure. Ma in questo cortocircuito fra avvocati, copyright e hallucination, c’è tutta la tragedia buffa del nostro tempo.

Un tempo in cui i bias cognitivi si fondono con i bias algoritmici, e dove nessuno vuole più perdere tempo a controllare, perché “tanto l’ha detto l’AI”.

E forse, alla fine, la colpa non è neanche di Claude. Forse siamo solo noi che vogliamo credere a una macchina che ci dice quello che vogliamo sentirci dire.

Magari con una citazione falsa. Ma ben formattata.