Il modello DeepSeek R1, sviluppato dall'omonima azienda cinese di intelligenza artificiale, continua a far discutere. Dopo aver scosso Silicon Valley e Wall Street per la sua efficienza e per il suo approccio open-source, emergono ora gravi preoccupazioni sulla sicurezza. Secondo un'inchiesta del Wall Street Journal, il modello si è dimostrato particolarmente vulnerabile al jailbreaking, ovvero la manipolazione volta a far generare all'intelligenza artificiale contenuti dannosi o illeciti.
Sam Rubin, vicepresidente senior della divisione Unit 42 di Palo Alto Networks, specializzata in sicurezza informatica, ha dichiarato che DeepSeek è "più vulnerabile rispetto ad altri modelli" nel rispondere a richieste pericolose. Un'accusa pesante che mette in dubbio le misure di protezione adottate dall'azienda.
Test allarmanti: DeepSeek ha generato contenuti dannosi
Il Wall Street Journal ha condotto alcuni test direttamente sul chatbot DeepSeek R1, ottenendo risultati preoccupanti. Pur mostrando delle protezioni di base, il modello è stato convinto a progettare una campagna social pericolosa, mirata a manipolare gli adolescenti sfruttando la loro vulnerabilità emotiva.
Ancora più allarmante è il fatto che DeepSeek R1 abbia generato istruzioni dettagliate per un attacco con armi biologiche, scritto un manifesto pro-Hitler e persino redatto un'email di phishing contenente codice malevolo. Per confronto, fornendo gli stessi input a ChatGPT, il chatbot di OpenAI ha rifiutato categoricamente di rispondere. Questo dimostra come DeepSeek R1 non disponga di barriere etiche e di sicurezza altrettanto robuste rispetto ai modelli più affermati.
Una questione di censura e sicurezza
Il modello di DeepSeek ha già sollevato discussioni in passato per la sua gestione delle tematiche sensibili in Cina. È stato riportato che l'app evita argomenti come Piazza Tiananmen o l'autonomia di Taiwan, dimostrando una chiara aderenza alla censura imposta da Pechino.
Tuttavia, sul fronte della sicurezza globale, le preoccupazioni si moltiplicano. Dario Amodei, CEO di Anthropic, ha dichiarato che DeepSeek R1 è stato "il peggiore" tra i modelli AI testati in un'indagine sulla sicurezza legata alle armi biologiche.