L’intelligenza artificiale di DeepSeek ha sollevato seri interrogativi sulla sua affidabilità e sul suo ruolo nel panorama globale dell’IA. Secondo un’analisi condotta da NewsGuard, il chatbot cinese ha fornito risposte errate nell’83% dei casi, posizionandosi al decimo posto su undici concorrenti. Un risultato che mette in discussione non solo l’efficacia del modello, ma anche il suo potenziale utilizzo come strumento di disinformazione e veicolo delle posizioni governative di Pechino.
Il Confronto con i Principali Competitor
L’analisi di NewsGuard ha testato DeepSeek con gli stessi criteri applicati ai 10 principali chatbot attualmente in circolazione: ChatGPT-4o di OpenAI, Smart Assistant di You.com, Grok-2 di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini 2.0 di Google e il motore di risposta di Perplexity. Mentre il tasso medio di fallimento di questi modelli si attesta intorno al 62%, DeepSeek ha superato questa soglia in modo significativo, accumulando un fallimento complessivo dell’83%.
Analizzando nel dettaglio il comportamento dell’IA cinese, è emerso che il 30% delle volte ha ripetuto false affermazioni, mentre nel 53% dei casi ha evitato di rispondere. Questo dato suggerisce che DeepSeek non solo è meno efficace rispetto ai concorrenti, ma è anche potenzialmente più incline alla manipolazione informativa, rendendolo un candidato problematico in un contesto di lotta alla disinformazione.