Con la sua nuova presa di posizione, il sito vuole rispondere alle accuse secondo cui è tollerante nei confronti di interventi razzisti e omofobi sulla sua piattaforma: ma ora devono seguire i fatti.
di Tanya Basu 13-12-19
Mercoledì scorso, YouTube ha annunciato un aggiornamento della sua politica sui materiali “molesti”, vale a dire che qualsiasi “insulto o frase umiliante verso gli altri a causa della loro razza, genere o orientamento sessuale” sarà rimosso. Saranno vietate anche minacce “velate o implicite” o un “linguaggio che induca a forme di violenza fisica”.
L’annuncio delle misure arriva circa sei mesi dopo che YouTube è stato al centro delle polemiche per essersi rifiutata di bannare Steven Crowder, un noto attore e commentatore conservatore, che aveva usato un linguaggio razzista e omofobo contro un giornalista di “Vox” sul suo canale. YouTube ha affermato che le parole di Crowder non hanno violato le sue norme. Questo nuovo aggiornamento sembra essere una risposta alla reazione che ne è seguita.
Cosa succederà allora? Una spolverata di IA, ma soprattutto molto aiuto da migliaia di nuovi moderatori che verranno assunti per guardare video e scansionarli alla ricerca di contenuti problematici. Tuttavia, il percorso passato di YouTube per quanto riguarda l’applicazione effettiva delle proprie norme non è davvero eccezionale.
Ci sono stati, inoltre, anche problemi con l’utilizzo dei moderatori. All’inizio di quest’anno, un’indagine di “Verge” ha messo in evidenza problemi di ordine mentale tra i moderatori di Facebook; un’altra indagine del “Washington Post” ha riscontrato la stessa instabilità tra i moderatori di YouTube. Reddit ha cercato di aiutare i moderatori umani con “automoderatori” basati sull’intelligenza artificiale, ma il sistema è imperfetto e richiede ancora una revisione umana.
L’altro punto debole della politica di YouTube riguarda i bambini: a settembre YouTube e la Federal Trade Commission hanno raggiunto un accordo da 170 milioni di dollari perché l’azienda detiene e utilizza illegalmente i dati su ciò che i bambini guardano, una violazione della legge sulla protezione della privacy online dei bambini.
A YouTube è stato richiesto di creare un sistema di etichettatura per i video dei bambini; se sono rivolti ai bambini, i creatori non sono autorizzati a raccogliere denaro pubblicitario o indirizzare gli spettatori potenzialmente interessati sulla base della loro cronologia di visualizzazioni.
Ma cosa significa che un contenuto è per i bambini? Questo è ciò che YouTube vuole capire bene per evitare di fare a meno delle entrate economiche legate a contenuti come video o animazioni di unboxing (video in cui i bambini scartano dei regali e ne fanno una recensione) che potrebbero nascondere forme occulte di pubblicità. Mercoledì, YouTube ha scritto una lettera alla Federal Trade Commission chiedendo chiarezza sui diversi aspetti in questione.
Foto: Unsplash