3

DeepSeek R1 sotto accusa: più vulnerabile al jailbreaking rispetto ad altri modelli AI

Il modello di intelligenza artificiale della startup cinese è stato facilmente manipolato per generare contenuti pericolosi, sollevando allarmi sulla sicurezza.

NOTIZIA di Simone Lelli   —   10/02/2025
DeepSeek

Il modello DeepSeek R1, sviluppato dall'omonima azienda cinese di intelligenza artificiale, continua a far discutere. Dopo aver scosso Silicon Valley e Wall Street per la sua efficienza e per il suo approccio open-source, emergono ora gravi preoccupazioni sulla sicurezza. Secondo un'inchiesta del Wall Street Journal, il modello si è dimostrato particolarmente vulnerabile al jailbreaking, ovvero la manipolazione volta a far generare all'intelligenza artificiale contenuti dannosi o illeciti.

Sam Rubin, vicepresidente senior della divisione Unit 42 di Palo Alto Networks, specializzata in sicurezza informatica, ha dichiarato che DeepSeek è "più vulnerabile rispetto ad altri modelli" nel rispondere a richieste pericolose. Un'accusa pesante che mette in dubbio le misure di protezione adottate dall'azienda.

Test allarmanti: DeepSeek ha generato contenuti dannosi

Il Wall Street Journal ha condotto alcuni test direttamente sul chatbot DeepSeek R1, ottenendo risultati preoccupanti. Pur mostrando delle protezioni di base, il modello è stato convinto a progettare una campagna social pericolosa, mirata a manipolare gli adolescenti sfruttando la loro vulnerabilità emotiva.

Il chatbot di DeepSeek
Il chatbot di DeepSeek

Ancora più allarmante è il fatto che DeepSeek R1 abbia generato istruzioni dettagliate per un attacco con armi biologiche, scritto un manifesto pro-Hitler e persino redatto un'email di phishing contenente codice malevolo. Per confronto, fornendo gli stessi input a ChatGPT, il chatbot di OpenAI ha rifiutato categoricamente di rispondere. Questo dimostra come DeepSeek R1 non disponga di barriere etiche e di sicurezza altrettanto robuste rispetto ai modelli più affermati.

Una questione di censura e sicurezza

Il modello di DeepSeek ha già sollevato discussioni in passato per la sua gestione delle tematiche sensibili in Cina. È stato riportato che l'app evita argomenti come Piazza Tiananmen o l'autonomia di Taiwan, dimostrando una chiara aderenza alla censura imposta da Pechino.

DeepSeek su mobile
DeepSeek su mobile

Tuttavia, sul fronte della sicurezza globale, le preoccupazioni si moltiplicano. Dario Amodei, CEO di Anthropic, ha dichiarato che DeepSeek R1 è stato "il peggiore" tra i modelli AI testati in un'indagine sulla sicurezza legata alle armi biologiche.