Facebook ha annunciato l'arrivo di un aggiornamento destinato ad introdurre nuovi limiti per gruppi, pagine e amministratori che violano le norme sui contenuti. L'azienda ha sviluppato un nuovo algoritmo che stabilisce se un sito abbia o meno l'autorità a condividere un determinato materiale; in caso negativo la sua presenza nei feed delle notizie diminuirà.
Da tempo il social network fondato da Mark Zuckerberg segue una strategia che prevede di rimuovere i contenuti che violano il regolamento, ridurre la diffusione di materiale problematico e informare le persone sulla fonte delle notizie cosicché possano decidere quali consultare.
Tra gli modifiche correlate alla riduzione dei contenuti problematici c'è anche quello legato ai gruppi, dove gli utenti sono soliti condividere fake news o articoli clickbait. In questi casi la visibilità dei suddetti gruppi sarà ridotta nel feed delle notizie.
Verrà inoltre ampliato l'intervento dell'agenzia di stampa internazionale Associated Press nel programma di fact-checking affidato a terze parti, e saranno consultati esperti esterni per sviluppare nuove strategie volte a combattere il fenomeno dilagante delle notizie fasulle. Per le azioni di rimozione è prevista una nuova sezione dedicata agli aggiornamenti del regolamento, che verrà aggiunta alla pagina Facebook Community Standards.
È prevista inoltre l'introduzione di indicatori di fiducia relativi ai contenuti in lingue inglese e spagnola, al fine di informare gli utenti sulla qualità delle notizie. Inoltre, dopo l'aggiornamento gli utenti usciti dai gruppi potranno rimuovere tutto ciò che avevano pubblicato all'interno di essi. L'applicazione Messenger riceverà l'etichetta "utente verificato" per combattere i furti di identità, insieme a nuove funzionalità volte a bloccare messaggi indesiderati e a segnalare i contenuti.