DeepSeek, la startup cinese che ha scosso i colossi tecnologici statunitensi con il suo modello di ragionamento R1, ha recentemente condotto valutazioni interne sui “rischi di frontiera” dei suoi sistemi di intelligenza artificiale. Questi rischi includono la capacità di auto-replicarsi e di condurre attacchi informatici offensivi, minacce potenzialmente gravi per la sicurezza pubblica e la stabilità sociale. Le valutazioni, non precedentemente riportate, non sono state pubblicate, e non è chiaro quando siano state completate o quali modelli siano stati coinvolti.