DeepSeek, la startup cinese che ha scosso i colossi tecnologici statunitensi con il suo modello di ragionamento R1, ha recentemente condotto valutazioni interne sui “rischi di frontiera” dei suoi sistemi di intelligenza artificiale. Questi rischi includono la capacità di auto-replicarsi e di condurre attacchi informatici offensivi, minacce potenzialmente gravi per la sicurezza pubblica e la stabilità sociale. Le valutazioni, non precedentemente riportate, non sono state pubblicate, e non è chiaro quando siano state completate o quali modelli siano stati coinvolti.
Questo sviluppo si inserisce nell’iniziativa di Pechino di promuovere la consapevolezza dei rischi legati all’IA all’interno dell’industria nazionale. Secondo il Shanghai Artificial Intelligence Laboratory, uno dei principali istituti di ricerca sulla sicurezza dell’IA in Cina, i sistemi di IA potenti possono rendere più facili da pianificare ed eseguire gli attacchi informatici. Inoltre, questi sistemi possono replicarsi autonomamente, copiando i loro pesi e codici su altre macchine senza supervisione umana, portando potenzialmente a una perdita di controllo. Sebbene l’istituto abbia concluso che nessun modello di IA cinese abbia superato le “linee rosse” dei rischi di frontiera che richiederebbero la sospensione dello sviluppo, ha notato che alcuni modelli, tra cui DeepSeek-V3-0324 e DeepSeek-R1-0528, necessitano di misure di mitigazione rafforzate per i rischi di auto-replicazione.
A differenza delle aziende statunitensi come Anthropic e OpenAI, che pubblicano regolarmente i risultati delle loro valutazioni sui rischi di frontiera, le aziende cinesi tendono a condurre queste valutazioni internamente senza divulgazione pubblica. Gli esperti suggeriscono che questo approccio sia influenzato dall’ambiente di mercato più avverso al rischio in Cina, dove riconoscere potenziali pericoli potrebbe ostacolare il rilascio di modelli, mentre negli Stati Uniti tali divulgazioni potrebbero attrarre investimenti.
I rischi di frontiera associati ai sistemi di IA comprendono varie categorie, tra cui attacchi informatici, rischi biologici e chimici, persuasione e manipolazione, inganno strategico, ricerca e sviluppo autonomi incontrollati, auto-replicazione e collusione. Le valutazioni hanno indicato che modelli come DeepSeek R1 possiedono capacità che potrebbero essere sfruttate per scopi dannosi, come la generazione di contenuti dannosi o la manipolazione avversaria.
Inoltre, DeepSeek ha recentemente affrontato una serie di sfide, tra cui un attacco informatico su larga scala che ha temporaneamente limitato le registrazioni degli utenti, e indagini da parte delle autorità italiane per preoccupazioni relative alla privacy dei dati e alla generazione di contenuti falsi. Questi eventi evidenziano le preoccupazioni globali riguardo alla sicurezza e alla gestione dei rischi associati all’IA avanzata sviluppata in Cina.