Seguici
Iscriviti alla nostra newsletter

    Gli algoritmi di Facebook sono pericolosi

    All’udienza del senato americano, Frances Haugen, la “gola profonda” dell’azienda, ha sollevato seri interrogativi su come funzionano gli algoritmi di Facebook, confermando quanto sostenuto in precedenti articoli di “MIT Technology Review”.

    di Karen Hao

    Qualche giorno fa, la fonte principale dei Facebook Files del “Wall Street Journal”, una serie investigativa basata su documenti interni di Facebook, ha rivelato la sua identità in un episodio di 60 Minutes . Frances Haugen, ex manager dell’azienda, afferma di essersi fatta avanti dopo aver visto la leadership di Facebook dare ripetutamente priorità al profitto rispetto alla sicurezza.

    Prima di lasciare nel maggio di quest’anno, ha setacciato Facebook Workplace, la rete di social media interna dei dipendenti dell’azienda, e ha raccolto un’ampia gamma di rapporti e ricerche interni nel tentativo di dimostrare in modo conclusivo che Facebook aveva scelto intenzionalmente di non risolvere i problemi sulla sua piattaforma. Nella sua testimonianza davanti al Senato sull’impatto sociale di Facebook ha ribadito le sue posizioni e ha implorato il Congresso di agire.

    “Sono qui oggi perché credo che i prodotti di Facebook danneggino i bambini, alimentino la divisione e indeboliscano la nostra democrazia”, ha detto nella sua dichiarazione di apertura ai senatori. “Questi problemi sono risolvibili. Un social media più sicuro, rispettoso della libertà di parola e più divertente è possibile. Ma una cosa credo sia ormai chiara: Facebook può cambiare, ma chiaramente non lo farà da sola”.

    Durante la sua testimonianza, Haugen ha incolpato in particolare l’algoritmo di Facebook e le scelte di progettazione della piattaforma per molti dei suoi problemi. Questo è un notevole cambiamento rispetto all’attuale attenzione dei responsabili politici sulla politica e sulla censura dei contenuti di Facebook: cosa fa o non fa l’azienda. Molti esperti ritengono che questa visione ristretta porti a una strategia “tappabuchi” che non coglie il quadro più ampio.

    “Sono una convinta sostenitrice delle soluzioni non basate sui contenuti, perché sono quelle in grado di proteggere le persone più vulnerabili del mondo”, ha affermato Haugen, indicando la capacità irregolare di Facebook di far rispettare la sua politica sui contenuti in lingue diverse dall’inglese. La testimonianza di Haugen fa eco a molti dei risultati di un’inchiesta di “MIT Technology Review” pubblicata a inizio anno, che ha attinto a dozzine di interviste con dirigenti di Facebook, dipendenti attuali ed ex, colleghi del settore ed esperti esterni. Abbiamo messo insieme le parti più rilevanti della nostra inchiesta e altri rapporti per contestualizzare la testimonianza di Haugen.

    Come funziona l’algoritmo di Facebook?

    Colloquialmente, usiamo il termine “algoritmo di Facebook” come se ce ne fosse uno solo. In effetti, Facebook decide come indirizzare gli annunci e classificare i contenuti in base a centinaia, forse migliaia, di algoritmi. Alcuni di questi algoritmi raccolgono le preferenze di un utente e aumentano quel tipo di contenuto nel feed di notizie dell’utente. Altri servono per rilevare tipi specifici di contenuti dannosi, come nudità, spam o titoli clickbait, per eliminarli o spingerli verso il basso nel feed.

    Tutti questi algoritmi sono noti come algoritmi di apprendimento automatico. Come ho scritto all’inizio di quest’anno:

    A differenza degli algoritmi tradizionali, che sono codificati dagli ingegneri, gli algoritmi di apprendimento automatico si “addestrano” sui dati di input per apprendere le correlazioni al loro interno. L’algoritmo addestrato, noto come modello di apprendimento automatico, può quindi automatizzare le decisioni future. Un algoritmo addestrato sui dati dei clic sugli annunci, per esempio, potrebbe apprendere che le donne fanno clic sugli annunci per i leggings da yoga più spesso degli uomini. Il modello risultante indirizzerà quindi gran parte di quegli annunci alle donne.

    E a causa dell’enorme quantità di dati utente di Facebook, può

    sviluppare modelli che hanno imparato a dedurre l’esistenza non solo di categorie ampie come “donne” e “uomini”, ma di categorie molto più accurate come “donne tra i 25 e i 34 anni a cui piacciono le pagine Facebook relative allo yoga” e gli annunci target da inviare. Più il targeting è a grana fine, maggiori sono le possibilità di un clic, il che garantisce agli inserzionisti un profitto.

    Gli stessi principi si applicano per il posizionamento dei contenuti nel feed di notizie:

    Gli algoritmi possono essere addestrati a prevedere chi farebbe clic su un particolare annuncio, o su chi potrebbe condividere un determinato post, e quindi metterlo in evidenza. Se il modello determinasse che a una persona piacciono i cani, per esempio, i post degli amici sui cani apparirebbero più in alto nel feed di notizie di quell’utente.

    Prima che Facebook iniziasse a utilizzare algoritmi di apprendimento automatico, i team utilizzavano tattiche di progettazione per aumentare il coinvolgimento. Ma gli algoritmi di apprendimento automatico creano un ciclo di feedback molto più potente. Non solo possono personalizzare ciò che ogni utente vede, ma continueranno anche ad evolversi con le mutevoli preferenze dell’utente, mostrando continuamente a ciascuna persona il contenuto che la coinvolgerà maggiormente.

    Chi gestisce l’algoritmo di Facebook?

    All’interno di Facebook, non esiste un team responsabile di questo sistema di classificazione dei contenuti nella sua interezza. Gli ingegneri sviluppano e aggiungono i propri modelli di apprendimento automatico al mix, in base agli obiettivi del proprio team. Per esempio, i team focalizzati sulla rimozione o la retrocessione di contenuti dannosi, noti come team di integrità, addestreranno solo modelli per rilevare diversi tipi di contenuti dannosi.

    Questa è stata una decisione che Facebook ha preso all’inizio come parte della sua cultura di intervento immediato. Ha sviluppato uno strumento interno noto come FBLearner Flow che ha reso facile per gli ingegneri senza esperienza di apprendimento automatico sviluppare qualsiasi modello di cui avessero bisogno. Il sistema era già in uso da più di un quarto del team di ingegneri di Facebook nel 2016.

    Molti degli attuali ed ex dipendenti di Facebook con cui ho parlato affermano che questo fa parte del motivo per cui Facebook non riesce a capire cosa offre agli utenti nel feed delle notizie. Team diversi possono avere obiettivi in competizione e il sistema è diventato così complesso e ingombrante che nessuno può più tenere traccia di tutte le sue diverse componenti. Di conseguenza, l’azienda esercita il controllo della qualità attraverso la sperimentazione e la misurazione. Come ho scritto:

    I team preparano un nuovo modello di apprendimento automatico su FBLearner, sia per modificare l’ordine di classificazione dei post sia per catturare meglio i contenuti che violano gli standard della community di Facebook (le sue regole su ciò che è consentito e non è consentito sulla piattaforma). Quindi testano il nuovo modello su un piccolo sottoinsieme di utenti di Facebook per misurare come cambiano le metriche di coinvolgimento, vale a dire il numero di “Mi piace”, commenti e condivisioni, afferma Krishna Gade, che è stato responsabile tecnico per il feed di notizie dal 2016 al 2018.

    Se un modello riduce troppo il coinvolgimento, viene scartato. In caso contrario, viene distribuito e monitorato continuamente. Su Twitter, Gade ha spiegato che i suoi ingegneri ricevevano notifiche ogni pochi giorni quando i “Mi piace” o i commenti erano in calo. Immediatamente cercavano di capire cosa aveva causato il problema e se i modelli avevano bisogno di riqualificazione.

    In che modo il ranking dei contenuti di Facebook ha portato alla diffusione di disinformazione e incitamento all’odio?

    Durante la sua testimonianza, Haugen è tornata ripetutamente sull’idea che l’algoritmo di Facebook inciti alla disinformazione, all’incitamento all’odio e persino alla violenza etnica”. Facebook sa, come ammesso pubblicamente, che la classificazione basata sul coinvolgimento è pericolosa senza sistemi di integrità e sicurezza, ma poi non ha implementato quei sistemi di integrità e sicurezza nella maggior parte delle lingue del mondo”, ha detto al Senato. “Sta separando le famiglie. E in posti come l’Etiopia sta letteralmente alimentando la violenza etnica”.

    Sull’argomento ho avuto modo di esprimermi già in passato:

    I modelli di apprendimento automatico che massimizzano il coinvolgimento favoriscono anche polemiche, disinformazione ed estremismo. A volte questo modo di procedere infiamma le tensioni politiche esistenti. L’esempio più devastante fino ad oggi è il caso del Myanmar, dove fake news virali e discorsi di odio sulla minoranza musulmana Rohingya hanno intensificato il conflitto religioso del Paese fino a farlo diventare un vero e proprio genocidio. Facebook ha ammesso nel 2018, dopo anni di minimizzazione del suo ruolo, di non aver fatto abbastanza “per impedire che la piattaforma venisse utilizzata per fomentare la divisione e incitare alla violenza offline”.

    Come ha detto Haugen, anche Facebook lo sa da un po’. Rapporti precedenti hanno scoperto che sta studiando il fenomeno almeno dal 2016.

    In una presentazione interna di quell’anno, recensita dal “Wall Street Journal”, una ricercatrice dell’azienda, Monica Lee, ha scoperto che Facebook non solo ospitava un gran numero di gruppi estremisti, ma li promuoveva anche ai suoi utenti: “Il 64 per cento dei nuovi aderenti a tutti i gruppi estremisti sono dovute ai nostri strumenti di raccomandazione”, ha affermato la presentazione, principalmente grazie ai modelli alla base delle funzionalità: “Gruppi a cui dovresti partecipare” e “Scopri”.

    Nel 2017, Chris Cox, responsabile di prodotto di lunga data di Facebook, ha formato una nuova task force per capire se massimizzare il coinvolgimento degli utenti su Facebook stesse contribuendo alla polarizzazione politica. Ha scoperto che c’era davvero una correlazione e che ridurre la polarizzazione avrebbe avuto delle ripercussioni negative per l’azienda. In un documento di metà 2018 recensito dal “Journal”, la task force ha proposto diverse potenziali soluzioni, come la modifica degli algoritmi di raccomandazione per suggerire una gamma più diversificata di gruppi a cui le persone possono unirsi. Ma ha riconosciuto che alcune delle idee erano “anticrescita”. La maggior parte delle proposte non è andata avanti e la task force è stata sciolta.

    Nelle mie conversazioni, anche i dipendenti di Facebook hanno confermato questi risultati.

    Un ex ricercatore di Facebook AI che si è unito nel 2018 afferma che lui e il suo team hanno condotto una serie di studi che confermano la stessa idea di base: i modelli che massimizzano il coinvolgimento aumentano la polarizzazione. Indipendentemente dal problema, i modelli hanno imparato a “nutrire” gli utenti con punti di vista sempre più estremi, aumentando sensibilmente la polarizzazione nel corso del tempo.

    Nella sua testimonianza, Haugen ha anche ripetutamente sottolineato come questi fenomeni siano molto peggiori nelle regioni che non parlano inglese a causa della copertura irregolare di Facebook delle diverse lingue. “Nel caso dell’Etiopia ci sono 100 milioni di persone e sei lingue. Facebook supporta solo due di queste lingue per i sistemi di integrità”, ha affermato. “Questa strategia di concentrarsi su sistemi specifici per lingua e contenuti per l’intelligenza artificiale è destinata a fallire”.

    “Quindi investire in modelli non basati sui contenuti per tenere sotto controllo la piattaforma non solo protegge la nostra libertà di parola, ma anche la vita delle persone”. Ho approfondito la questione su diversi articoli dall’inizio di quest’anno dedicati ai limiti dei modelli linguistici di grandi dimensioni o LLM:

    Nonostante le carenze linguistiche, Facebook fa molto affidamento sgli LLM per automatizzare la moderazione dei contenuti a livello globale. Quando la guerra in Tigray (Etiopia) è scoppiata per la prima volta a novembre, la ricercarice di etica dell’intelligenza artificiale Timnit Gebru ha visto la piattaforma perdere il controllo della disinformazione. Questo è emblematico di un modello persistente che i ricercatori hanno osservato nei sistemi di moderazione dei contenuti. Le comunità che parlano lingue poco conosciute dalla Silicon Valley si ritrovano negli ambienti digitali più ostili.

    Gebru ha notato che il danno non finisce qui. Quando le notizie false, l’incitamento all’odio e persino le minacce di morte non vengono moderate, vengono assunti come dati di addestramento per costruire la prossima generazione di LLM. E questi modelli, ripetendo a pappagallo ciò su cui sono stati addestrati, finiscono per rigurgitare questi modelli linguistici tossici su Internet.

    In che modo il ranking dei contenuti di Facebook è correlato alla salute mentale degli adolescenti?

    Una delle rivelazioni più scioccanti dei file Facebook del “Journal” è stata la ricerca interna di Instagram, che ha scoperto che la sua piattaforma sta peggiorando la salute mentale tra le ragazze adolescenti. “Il trentadue per cento delle ragazze adolescenti ha affermato che quando si sentivano a disagio con il proprio corpo, Instagram le faceva sentire peggio”, hanno scritto i ricercatori in una presentazione di diapositive del marzo 2020.

    Haugen collega questo fenomeno anche ai sistemi di classificazione basati sul coinvolgimento, che ha detto al Senato “stanno facendo sì che gli adolescenti siano esposti a più contenuti che spingono verso l’anoressia”. “Se Instagram fosse una forza così positiva, ci sarebbe stata un’età d’oro della salute mentale degli adolescenti negli ultimi 10 anni. Ma è realmente così? No, abbiamo visto tassi crescenti di suicidio e depressione tra gli adolescenti”, ha continuato. “C’è un’ampia gamma di ricerche che supporta l’idea che l’uso dei social media amplifica il rischio di questi danni alla salute mentale”.

    Un ex ricercatore di intelligenza artificiale, da me intervistato, ha visto questo effetto estendersi anche a Facebook.

    Il suo team ha scoperto che gli utenti con la tendenza a pubblicare o interagire con contenuti malinconici, un possibile segno di depressione, possono facilmente consumare materiale sempre più negativo che rischia di peggiorare ulteriormente la loro salute mentale.

    Ma come con Haugen, il ricercatore ha scoperto che la leadership aziendale non era interessata a fare cambiamenti algoritmici fondamentali.

    Il team ha proposto di modificare i modelli di classificazione dei contenuti per questi utenti per smettere di massimizzare il coinvolgimento, in modo da mostrare loro meno cose deprimenti. “La domanda che era stata rivolta alla leadership era: come ci dobbiamo comportare con il coinvolgimento se si scopre che qualcuno è in uno stato mentale vulnerabile?”.

    Ma tutto ciò che ha ridotto il coinvolgimento, ha portato a parecchi problemi tra i dirigenti. Con le loro revisioni delle prestazioni e gli stipendi legati al completamento con successo dei progetti, i dipendenti hanno imparato rapidamente ad adeguarsi ai dettati che arrivavano dall’alto.

    Il meccanismo si può aggiustare?

    Haugen è contrario allo scioglimento di Facebook o all’abrogazione della Sezione 230 del Communications Decency Act degli Stati Uniti, che protegge le piattaforme tecnologiche dall’assumersi la responsabilità per i contenuti che distribuisce. Invece, raccomanda di ritagliarsi un’esenzione più mirata nella Sezione 230 per il ranking algoritmico, che secondo lei “eliminerebbe il ranking basato sul coinvolgimento”. Sostiene anche un ritorno al feed cronologico delle notizie di Facebook.

    Ellery Roberts Biddle, direttrice dei progetti di Ranking Digital Rights, un’organizzazione no-profit che studia i sistemi di classificazione dei social media e il loro impatto sui diritti umani, afferma che uno scorporo della Sezione 230 dovrebbe essere esaminato attentamente: “Non credo che si otterrebbe quanto sperato”, dice.

    Affinché tale scorporo sia attuabile, afferma, i responsabili politici e il pubblico dovrebbero avere un livello molto maggiore di trasparenza su come funzionano anche i sistemi di targeting degli annunci e di classificazione dei contenuti di Facebook. “Capisco cosa vuole dire Haugen: è vero, non abbiamo ancora risposto alla domanda sulla trasparenza sugli algoritmi. C’è molto altro da fare”.

    Tuttavia, le rivelazioni e la testimonianza di Haugen hanno portato una rinnovata attenzione su ciò che molti esperti e dipendenti di Facebook affermano da anni: che a meno che Facebook non cambi il design fondamentale dei suoi algoritmi, non intaccherà in modo significativo i problemi della piattaforma. 

    Il suo intervento apre la strada alla possibilità di interventi dei politici, se Facebook non sarà in grado di mettere ordine in casa propria. “Il Congresso può cambiare le regole di Facebook e fermare i molti danni che sta causando”, ha detto Haugen al Senato. “Mi sono fatta avanti con un grande rischio personale perché credo che abbiamo ancora tempo per agire, ma dobbiamo muoverci in fretta”.

    (rp)

    Related Posts
    Total
    0
    Share