15

Grok-3 sotto accusa: l’IA di Elon Musk forniva istruzioni per armi chimiche, xAI corre ai ripari

Un ricercatore ha scoperto che Grok-3, il modello AI di xAI, poteva fornire dettagli sulla creazione di armi chimiche di distruzione di massa. Dopo l'allarme, l'azienda ha introdotto nuove restrizioni.

NOTIZIA di Simone Lelli   —   25/02/2025
Grok

Grok-3, il modello AI di xAI sviluppato da Elon Musk, è finito al centro delle polemiche dopo che un esperto di intelligenza artificiale ha scoperto che il chatbot era in grado di fornire istruzioni dettagliate per la produzione di armi chimiche di distruzione di massa. A sollevare la questione è stato Linus Ekenstam, AI evangelist e cofondatore della startup Flocurve, che ha documentato il problema in un post su X (ex Twitter), mostrando come fosse riuscito a ottenere centinaia di pagine di informazioni dettagliate sulle armi chimiche, incluse liste di fornitori per acquistare gli ingredienti necessari.

L'esperto ha sottolineato come non fosse richiesta alcuna particolare abilità nella formulazione dei prompt per ottenere queste informazioni, rendendo il problema ancora più grave. Secondo Ekenstam, chiunque avrebbe potuto accedere a questi dati pericolosi semplicemente interagendo con il chatbot, senza dover effettuare ricerche approfondite o accedere a documenti riservati. Questo ha suscitato enormi preoccupazioni, considerando che l'obiettivo di Grok-3 è rendere l'AI accessibile a tutti.

La reazione di xAI e la corsa ai ripari

Dopo l'allarme lanciato da Ekenstam, lui stesso ha confermato che il team di xAI si è dimostrato molto reattivo, introducendo rapidamente nuove misure di sicurezza per impedire che il chatbot fornisse risposte pericolose. Tuttavia, ha aggiunto che, sebbene i sistemi di protezione ora sembrino attivi, alcune falle potrebbero ancora essere sfruttate da utenti esperti che cercano di aggirare i filtri.

L'esperto di AI ha spiegato che questi problemi derivano dalla mancanza di controlli adeguati prima del rilascio pubblico del modello. La maggior parte delle aziende AI moderne sottopone i propri modelli a rigorosi test di sicurezza, un processo noto come "alignment" (allineamento), che impedisce alla macchina di fornire risposte dannose. Questo può avvenire attraverso filtri per i prompt, apprendimento supervisionato (RLHF) o tramite test di sicurezza interni noti come "red teaming", dove esperti tentano di forzare il modello a dare risposte vietate.

Al momento X/Twitter ha dei problemi
e non è possibile caricare il post

Grok-3 sembra non aver ricevuto controlli adeguati prima del rilascio, il che ha reso possibile questa grave falla di sicurezza. Questo è particolarmente allarmante considerando le dichiarazioni di Musk, che ha più volte sottolineato che il suo obiettivo con Grok-3 è quello di creare un'AI in grado di fornire la "verità" senza filtri. Tuttavia, come dimostrato dal caso di Ekenstam, una mancanza di filtri adeguati può avere conseguenze disastrose.

L’AI e la corsa alla competitività: una minaccia per la sicurezza?

La vicenda di Grok-3 riaccende il dibattito sulla responsabilità delle aziende AI nel garantire che i loro modelli non diventino strumenti pericolosi. Secondo Ekenstam, il problema nasce dalla competizione feroce tra le aziende AI, in particolare tra xAI e OpenAI, la startup guidata da Sam Altman, da cui Musk si è separato in modo burrascoso. Il timore è che la necessità di lanciare nuovi modelli il più velocemente possibile stia portando le aziende a sacrificare la sicurezza per battere la concorrenza.

Al momento X/Twitter ha dei problemi
e non è possibile caricare il post

Il caso di Grok-3 non è il primo nel settore. Anche altre aziende hanno dovuto affrontare problemi di "jailbreak", con utenti che hanno trovato modi per forzare i chatbot a fornire informazioni sensibili. Tuttavia, ciò che rende unico questo caso è la gravità delle informazioni rilasciate e la facilità con cui erano accessibili.