10

Google cambia rotta: eliminata la promessa di non sviluppare armi AI

L'azienda ha modificato le sue linee guida sull'intelligenza artificiale, eliminando il divieto di applicazioni per armi e sorveglianza, citando un contesto geopolitico sempre più complesso.

NOTIZIA di Simone Lelli   —   06/02/2025
Google

Google ha aggiornato i suoi principi etici sull'intelligenza artificiale, eliminando l'impegno a non sviluppare tecnologie per il settore militare, la sorveglianza o che possano causare danni significativi. La modifica è stata individuata per la prima volta dal Washington Post e confermata dall'Internet Archive, segnando un cambio di strategia in un momento di crescente competizione nel settore dell'AI.

Nel nuovo documento pubblicato da Google DeepMind, il CEO Demis Hassabis e il vicepresidente per tecnologia e società James Manyika hanno ridefinito i principi guida dell'azienda, ora focalizzati su innovazione, collaborazione e sviluppo responsabile dell'AI. Tuttavia, il concetto di "responsabilità" viene lasciato volutamente vago, senza escludere esplicitamente applicazioni militari.

L’intelligenza artificiale tra sicurezza e competizione globale

Secondo Google, la decisione è dettata dal nuovo contesto internazionale, caratterizzato da una corsa globale alla leadership nell'intelligenza artificiale. Nel post ufficiale, l'azienda sottolinea come i governi democratici debbano guidare lo sviluppo dell'AI, proteggendo valori come libertà, uguaglianza e diritti umani, ma anche supportando la sicurezza nazionale.

La vecchia lista
La vecchia lista

Questa dichiarazione si allinea con la tendenza di altre big tech, come Meta, OpenAI e Amazon, che hanno già aperto la strada a collaborazioni con enti governativi e militari.

Dal rifiuto delle armi AI alle collaborazioni con i governi

Nonostante le precedenti affermazioni di principio, Google ha già collaborato con il settore militare in passato. Tra i contratti più discussi ci sono:

  • Project Maven (2018): un accordo con il Pentagono per l'analisi di immagini da droni tramite AI, progetto che sollevò forti proteste tra i dipendenti di Google.
  • Project Nimbus (2021): una collaborazione per fornire servizi cloud avanzati all'esercito israeliano.

In passato, Google DeepMind aveva chiarito di non voler applicare la propria tecnologia all'ambito militare, ma con le nuove modifiche alle policy aziendali, questa posizione sembra essere stata accantonata.

Google non è l'unica azienda ad aver modificato la sua posizione sull'AI a scopo militare. Meta permette l'uso limitato del suo modello Llama per applicazioni legate alla sicurezza, mentre OpenAI ha aperto la porta a usi governativi selezionati per ChatGPT. Anche Amazon, con un accordo con Palantir, ha reso disponibile l'AI di Anthropic alle agenzie di sicurezza USA.