40

TikTok, niente immunità: la causa per la mortale "blackout challenge" si farà

TikTok è stata citato in giudizio per la pericolosa "blackout challenge", che ha portato alla morte di diversi bambini: una corte d'appello ha stabilito che TikTok può essere ritenuto responsabile.

NOTIZIA di Raffaele Staccini   —   30/08/2024
Il logo di TikTok

TikTok si trova al centro di una bufera legale. La causa? La famigerata "blackout challenge", una sfida virale che sfidava a soffocarsi fino a svenire e che sembra aver portato al decesso di diversi bambini sotto i 15 anni. Una corte d'appello della Pennsylvania ha ora stabilito che TikTok può essere ritenuto responsabile per i contenuti proposti dal suo algoritmo, aprendo un dibattito cruciale sui limiti della libertà delle piattaforme online.

Fino ad ora, TikTok si era appellato alla Sezione 230, una legge che protegge le piattaforme online dalla responsabilità per i contenuti pubblicati dagli utenti. Ma la corte d'appello ha ribaltato la situazione, affermando che le raccomandazioni dell'algoritmo sono da considerarsi espressione diretta di TikTok e, di conseguenza, la piattaforma può essere chiamata a risponderne.

I contenuti della blackout challenge sono ora inaccessibili
I contenuti della blackout challenge sono ora inaccessibili

La sentenza si basa su una recente decisione della Corte Suprema degli Stati Uniti, che ha stabilito che le piattaforme online godono di libertà di espressione quando curano e moderano i contenuti, anche attraverso l'uso di algoritmi. Tuttavia, la Corte Suprema non si è espressa sugli algoritmi che "rispondono esclusivamente al comportamento degli utenti online".

Nel caso di TikTok, la corte d'appello ha ritenuto che l'algoritmo rientrasse in questa categoria, poiché le raccomandazioni fatte a un utente specifico non dipendono da input diretti dell'utente stesso. In altre parole, l'algoritmo di TikTok decide autonomamente quali contenuti mostrare, e questa scelta può avere conseguenze drammatiche.

La sentenza della corte d'appello si basa sul caso di Nylah Anderson, una bambina di 10 anni che si è tolta la vita dopo aver visto video della "blackout challenge" sulla sua pagina "Per Te". La madre di Nylah ha citato in giudizio TikTok, accusando la piattaforma di negligenza per aver promosso contenuti pericolosi.

Se la corte inferiore confermerà la responsabilità di TikTok in questo caso, potrebbe crearsi un precedente significativo che influenzerà il modo in cui le piattaforme online gestiscono i contenuti e le raccomandazioni algoritmiche. Un dibattito estremamente attuale anche per il caso Durov, da poco tornato in libertà su cauzione.