15

Instagram mostra contenuti violenti per errore: Meta risolve il problema e si scusa

Meta ha corretto un errore che ha portato alla diffusione di contenuti grafici e violenti nei Reels di Instagram; l'azienda assicura che la moderazione è stata ripristinata, ma il caso solleva dubbi sulle recenti modifiche alle politiche di controllo.

NOTIZIA di Simone Lelli   —   27/02/2025
Instagram

Un errore nei sistemi di moderazione di Meta ha causato un'ondata di contenuti violenti nei feed Reels di Instagram, con post che mostravano immagini esplicite non adatte al pubblico. Dopo numerose segnalazioni da parte degli utenti, l'azienda ha confermato di aver risolto il problema e si è scusata per l'incidente.

"Abbiamo corretto un errore che ha portato alcuni utenti a vedere contenuti nei loro Reels che non avrebbero dovuto essere raccomandati. Ci scusiamo per l'errore", ha dichiarato un portavoce di Meta.

L'incidente ha generato allarme tra gli utenti, con molti che hanno riferito di aver visto contenuti espliciti nonostante l'attivazione del filtro "Contenuti Sensibili" al massimo livello.

Come funziona la moderazione di Meta?

Meta afferma di utilizzare un mix di intelligenza artificiale e revisione umana per individuare e rimuovere immagini disturbanti prima che gli utenti le segnalino. La piattaforma conta su un team di oltre 15.000 revisori per il controllo dei contenuti, supportati da sistemi di AI capaci di identificare materiale violento, nudità e contenuti inappropriati.

Secondo la policy di Meta, sono vietati contenuti come:

  • Video che mostrano smembramenti, corpi carbonizzati o lesioni gravi
  • Commenti sadici su immagini di sofferenza umana o animale

Tuttavia, la piattaforma consente la pubblicazione di contenuti grafici legati a temi di denuncia sociale, come abusi sui diritti umani o conflitti armati, con limitazioni e avvisi di contenuto sensibile.

Meta cambia rotta: meno censura e più libertà di espressione

L'incidente arriva in un momento delicato per Meta, che di recente ha annunciato una revisione delle sue politiche di moderazione per ridurre la censura e favorire la libertà di espressione. Dal 7 gennaio 2025, la società ha implementato un nuovo approccio, riducendo l'uso di sistemi automatizzati per bloccare i contenuti e concentrandosi solo su violazioni gravi, come terrorismo, sfruttamento minorile, truffe e frodi, droghe e reati finanziari.

Le etichette AI
Le etichette AI

Per violazioni minori, Meta ha deciso di affidarsi alle segnalazioni degli utenti, anziché applicare blocchi automatici. Inoltre, la piattaforma ha ridotto la penalizzazione dei post basata su previsioni di possibili violazioni, eliminando gran parte dei depotenziamenti automatici dei contenuti.