"Mitigare i rischi di estinzione rappresentati dall'Intelligenza artificiale deve essere una priorità globale insieme ad altri rischi di per la società come le pandemie e la guerra nucleare." A scrivere un messaggio tanto allarmante non sono stati dei poveri sprovveduti, ma trecentocinquanta tra i massimi esperti mondiali di intelligenza artificiale.
Nell'elenco dei firmatari del messaggio, volutamente stringato ed apocalittico, figurano ricercatori e capi dell'industria dell'intelligenza artificiale, tra i quali nientemeno che Sam Altman, l'amministratore delegato di OpenAI, oltre a 38 esponenti di DeepMind di Google, l'unità della compagnia di Mountain View che si occupa di intelligenza artificiale.
La lettera è stata diffusa dal Center for AI Safety come ennesimo appello a non sottovalutare gli enormi rischi legati all'uso diffuso dell'intelligenza artificiale. Segue all'appello di fine marzo, firmato da più di mille tra accademici, ricercatori e imprenditori.
Per Dan Hendrycks, il presidente del Center for AI Safety, c'è bisogno che si diffonda la consapevolezza dei rischi legati alle IA per avere proposte di regolamentazione delle stesse che siano proporzionate a quanto è in gioco.