3

Google, OpenAI, Roblox e Discord insieme per la sicurezza online dei bambini: nasce ROOST

Un'alleanza inedita tra giganti della tecnologia per migliorare la sicurezza online dei bambini e provare ad evitare casi di molestie sui minori.

NOTIZIA di Raffaele Staccini   —   11/02/2025
Roblox Roost
Roblox
Roblox
Articoli News Video Immagini

Google, OpenAI, Roblox e Discord hanno unito le forze per creare ROOST (Robust Open Online Safety Tools), un'organizzazione no-profit che mira a migliorare la sicurezza online dei bambini. L'obiettivo principale è rendere le tecnologie di sicurezza di base più accessibili alle aziende e fornire strumenti di intelligenza artificiale open-source gratuiti per identificare, esaminare e segnalare materiale di abuso sessuale su minori (CSAM).

Questa iniziativa nasce dalla crescente preoccupazione per l'impatto dell'IA generativa sugli ambienti online e dalla necessità di "accelerare l'innovazione nella sicurezza online dei bambini", come affermato da Eric Schmidt, ex CEO di Google e partner fondatore di ROOST. I dettagli sugli strumenti di rilevamento del CSAM sono ancora scarsi, ma si sa che utilizzeranno grandi modelli linguistici di IA e "unificheranno" le opzioni esistenti per la gestione di tali contenuti.

Che cosa vuole essere ROOST

L'annuncio di ROOST arriva in un momento di forte dibattito sulla sicurezza dei bambini sui social media e sulle piattaforme online, con le aziende che cercano di autoregolamentarsi per prevenire interventi legislativi più restrittivi. Il National Center for Missing and Exploited Children (NCMEC) ha registrato un aumento del 12% del sospetto sfruttamento di minori tra il 2022 e il 2023.

Roblox
Roblox

Roblox e Discord, in particolare, sono stati oggetto di critiche per la gestione della sicurezza dei minori sulle loro piattaforme. Roblox, con oltre metà dei bambini statunitensi che la utilizzano, è stata accusata di non aver affrontato adeguatamente lo sfruttamento sessuale dei minori e l'esposizione a contenuti inappropriati. Entrambe le società sono state citate in una causa del 2022 per non aver impedito agli adulti di inviare messaggi ai bambini senza supervisione.

I membri fondatori di ROOST stanno fornendo finanziamenti e offrendo i loro strumenti o competenze al progetto. ROOST collaborerà con i principali sviluppatori di modelli di base di IA per costruire una "comunità di pratica" per le salvaguardie dei contenuti, che includerà la fornitura di set di dati di training di IA convalidati e l'identificazione delle lacune nella sicurezza.

L'approccio collaborativo e open-source di ROOST mira a promuovere l'innovazione e rendere l'infrastruttura di sicurezza più trasparente, accessibile e inclusiva. L'obiettivo finale è creare un Internet più sicuro per tutti, a partire dalla protezione dei minori. L'iniziativa renderà "gli strumenti già esistenti" più accessibili, combinando varie tecnologie di rilevamento e segnalazione in una soluzione unificata più facile da implementare per altre aziende.

Discord, ad esempio, contribuirà con il suo progetto di condivisione di informazioni multipiattaforma Lantern, mentre Roblox potrebbe offrire il suo modello di IA per il rilevamento di contenuti inappropriati in clip audio.

Voi che cosa ne pensate? Simili iniziative di autoregolamentazione possono avere successo o servirebbe un intervento legislativo? Diteci la vostra nei commenti qua sotto.