La confessione è arrivata da Hangzhou con la solennità di un comunicato istituzionale e l’urgenza di un’azienda che sta perdendo terreno. DeepSeek, la start-up di intelligenza artificiale fondata dallo scienziato Liang Wenfeng, ha deciso di mostrare al mondo come filtra i dati per addestrare i propri modelli. Un gesto che sembra altruistico, ma che sa molto di manovra difensiva. Perché dietro la retorica della “sicurezza prima di tutto”, si nasconde una realtà più scomoda: i loro chatbot sono accusati di produrre troppe allucinazioni, e la concorrenza non aspetta.
Chiunque conosca i meccanismi di addestramento dei modelli linguistici sa che il concetto di purezza dei dati è più fragile di quanto i comunicati possano far credere. DeepSeek sostiene di raccogliere dati principalmente da fonti online pubbliche e da provider terzi autorizzati, evitando di toccare i dati personali. Nulla di sorprendente, nulla di rivoluzionario. Il punto cruciale, però, è nei filtri: algoritmi automatici incaricati di eliminare odio, pornografia, violenza e contenuti protetti da copyright. Sembra la lista di un ufficio compliance piuttosto che un piano tecnologico innovativo. Il problema è che la realtà non si lascia filtrare con la delicatezza di un colino da cucina, e ciò che rimane spesso è altrettanto sporco di ciò che si è scartato.
La vera ossessione di DeepSeek è ridurre le allucinazioni AI, quell’effetto collaterale che rende i chatbot tanto affascinanti quanto pericolosi. I modelli non cercano la verità, la predicono. E predire significa talvolta inventare, con la disinvoltura di uno studente di retorica che non ha letto il libro ma sa improvvisare un discorso convincente. DeepSeek ammette candidamente che il problema è inevitabile. “Non possiamo garantire che i nostri modelli non produrranno allucinazioni”, dichiarano, con una sincerità che in Occidente sarebbe considerata suicida dal punto di vista del marketing. In Cina invece può sembrare una mossa per anticipare il pugno duro della regolamentazione che Pechino sta preparando sull’intelligenza artificiale.
L’ironia è che la popolarità di DeepSeek sta già crollando, nonostante le dichiarazioni di impegno etico. Cinque mesi consecutivi di calo di traffico sul sito, fino a 345 milioni di visite a luglio. Numeri che per molti sarebbero una vittoria, ma che per un gigante emergente indicano un declino bruciante. La caduta non è avvenuta nel vuoto: scandali di disinformazione, un chatbot accusato di diffamare celebrità, e la percezione diffusa che l’azienda non stia controllando abbastanza il proprio prodotto. È il classico paradosso della tecnologia che promette di sostituire la competenza umana e poi si ritrova a dover pregare gli utenti di “cercare un consiglio professionale quando necessario”.
C’è poi la questione del labeling. DeepSeek ha annunciato che etichetterà i contenuti generati dall’intelligenza artificiale per ridurre la confusione pubblica. Una dichiarazione che ricorda i bollini “contenuto adatto ai minori” sulle videocassette anni Novanta: rassicuranti per i genitori, irrilevanti per chi guardava davvero i film. Copiare un testo rimuove qualsiasi metadata, lo ricorda con freddezza Gilad Abiri della Peking University. Basta un copia e incolla per cancellare ogni traccia della provenienza, rendendo l’etichettatura un esercizio di cosmesi più che di sostanza. L’unica vera arma sarebbe la moderazione attiva dei contenuti, e qui entriamo nel cuore della tensione: quanto può controllare un’azienda un modello open source che chiunque può scaricare, modificare e riutilizzare a piacere?
Il paradosso di DeepSeek è quello dell’intero ecosistema cinese di intelligenza artificiale. Quasi tutti i modelli principali sono open source, una scelta che accelera l’innovazione e democratizza l’accesso, ma che rende anche impossibile contenere gli abusi. Parlare di sicurezza dell’intelligenza artificiale in un contesto del genere è come predicare sobrietà in una fiera del vino: tutti annuiscono, nessuno smette di bere. Privacy, bias, copyright, discriminazione, manipolazione politica, le categorie di rischio elencate da DeepSeek sono una checklist più che un piano di mitigazione.
La differenza tra i rischi percepiti in Cina e quelli in Occidente è lampante. Scott Singer, del Carnegie Endowment, nota che il documento di DeepSeek si concentra sui rischi a breve termine, come la protezione dei dati, piuttosto che su scenari catastrofici. Nessuna menzione alle distopie da film di Hollywood, nessuna narrativa sull’AI che si ribella all’uomo. Il pragmatismo cinese preferisce occuparsi del qui e ora: i dati, i filtri, le etichette. Ma il pragmatismo non basta quando la fiducia degli utenti evapora e la competizione sforna alternative più affidabili.
C’è un aspetto quasi grottesco nella parabola di DeepSeek. Nel tentativo di posizionarsi come garante della sicurezza, ha finito per certificare pubblicamente le proprie debolezze. Ammettere di non poter evitare le allucinazioni equivale a dire che la propria intelligenza artificiale non è affidabile, e in un mercato che vive di percezioni, questa è una ferita difficilmente rimarginabile. In fondo, nessun utente vuole sentirsi dire che il medico virtuale potrebbe sbagliare diagnosi ma che tanto è normale. La fiducia, una volta incrinata, non si recupera con un comunicato stampa.
L’industria dell’intelligenza artificiale in Cina, e non solo, è entrata in una fase adolescenziale. Brillante, ribelle, eccessiva, incapace di gestire le proprie pulsioni. DeepSeek rappresenta il caso da manuale: crescita rapidissima, esposizione mediatica, poi la brusca realtà fatta di errori, scandali e perdita di credibilità. Eppure, la storia non finisce qui. In un ecosistema dove il codice open source è la norma, le aziende hanno sempre una seconda possibilità. La domanda è se DeepSeek saprà reinventarsi o resterà come esempio di startup che ha svelato troppo presto i propri difetti, pensando di fare trasparenza ma finendo per accelerare il proprio declino.
 
								