Seguici
Iscriviti alla nostra newsletter

    Le Big Tech non possono arrestare il fenomeno dell’hate speech

    Abbiamo chiesto alle Big Tech di rimuovere l’hate speech da Internet. Abbiamo ottenuto esattamente quello che volevamo.

    di Gideon Lichfield

    Le regole trafugate da Facebook per la moderazione dei contenuti dimostrano perché le Big Tech non possono fermare l’hate speech
    La società ha chiesto alle Big Tech di rimuovere l’hate speech da Internet. Abbiamo ottenuto esattamente quello che volevamo.
    Di Gideon Lichfield

    La notizia: Max Fisher del New York Times ha pubblicato un estratto delle oltre 1.400 pagine di documenti interni a Facebook contenenti le regole che il suo esercito globale di oltre 7.500 moderatori deve seguire nel revisionare i contenuti.

    Il contenuto: Un gran miscuglio di linee guida, restrizioni e classificazioni. Le sole regole per il controllo dell’hate speech riempiono “200 pagine di termini e gerghi comuni”. Includono dettagli su come interpretare le emoji (il cui significato può essere associato sia a interventi di “bullismo” che a “elogi”) e liste di persone o gruppi politici da tenere sotto controllo per la possibile divulgazione di incitamento all’odio. I documenti dimostrano come Facebook sia “un arbitro ben più potente dei discorsi intrattenuti a livello mondiale”, ammette Fisher.

    Il problema: Le linee guida non sono semplicemente bizantine; alcune regole sono troppo datate o contengono errori. Variano enormemente a seconda delle pressioni cui la società è sottoposta: “Facebook blocca dozzine di gruppi di estrema destra in Germania, dove le autorità controllano severamente il social network, ed un solo gruppo nella vicina Austria”.

    I moderatori, la maggior parte dei quali lavora per compagnie di outsourcing e riceve un addestramento minimo, devono prendere decisioni complesse nel giro di pochi secondi, elaborando migliaia di post al giorno, attingendo a regole che cambiano frequentemente in risposta a eventi politici e ricorrendo spesso a Google Translate.

    Il risultato: Questo processo annulla qualunque pretesa che Facebook sia una piattaforma neutrale. Il giudizio politico permea tutte le pagine delle sue linee guida.

    Cosa vi aspettavate? Come spiegatoci a ottobre da Alex Stamos, l’ex responsabile della sicurezza di Facebook, abbiamo chiesto alle piattaforme tech di tenere sotto controllo l’hate speech, dando loro più poteri. “È un percorso pericoloso”, avvertiva Stamos. “Fra cinque o dieci anni potremmo disporre di sistemi di apprendimento automatico capaci di comprendere il linguaggio umano al pari di un essere umano. Potremmo andare incontro a una moderazione artificiale e in tempo reale di tutto ciò che diciamo online”.

    (MO)

    Related Posts
    Total
    0
    Share