Seguici
Iscriviti alla nostra newsletter

    Facebook utilizza i bot per testare i suoi prodotti

    Come accade a ogni azienda produttrice di software, il gigante della tecnologia deve capire le conseguenze dell’introduzione di un nuovo codice quando sviluppa nuovi aggiornamenti.

    di Karen Hao 

    I metodi di controllo di solito si concentrano sulle possibili reazioni di un utente che sperimenta la piattaforma e su come il software risponde alle azioni di quei singoli utenti. Ma, nel caso di Facebook, il 25 per cento dei problemi più seri emerge solo quando gli utenti iniziano a interagire tra loro. Non è affatto semplice prevedere le conseguenze dell’introduzione di una funzione o degli aggiornamenti di un’impostazione sulla privacy su miliardi di interazioni tra utenti. 

    In risposta, Facebook ha creato una versione ridotta della sua piattaforma per simulare il comportamento degli utenti. Il sistema, chiamato WW, aiuta gli ingegneri a identificare e correggere le conseguenze indesiderate dei nuovi aggiornamenti prima che vengano implementati e raccomanda automaticamente le modifiche che possono essere apportate alla piattaforma per migliorare l’esperienza della comunità. 

    L’azienda simula da centinaia a migliaia di utenti contemporaneamente con un mix di robot codificati e basati sull’apprendimento automatico. Questi ultimi sono addestrati usando un algoritmo di apprendimento del rinforzo, che si sviluppa attraverso prove ed errori per ottimizzare il comportamento alla luce di alcuni obiettivi. I bot vengono creati per riprodurre diversi scenari, come un truffatore che cerca di sfruttare altri utenti o un hacker che tenta di accedere alle foto private di qualcuno. 

    Nell’ipotesi di una truffa, per esempio, ai robot “malvagi” viene assegnato l’obiettivo di trovare le possibili prede. I robot target, al contrario, sono codificati con i comportamenti vulnerabili più comuni mostrati dagli utenti. Ogni scenario può avere solo pochi robot che li attivano, ma il sistema è progettato per avere in esecuzione migliaia di situazioni diverse in parallelo. 

    Nel corso delle simulazioni, il sistema regola automaticamente diversi parametri, come le impostazioni della privacy dei robot o i vincoli sulle loro azioni. Ad ogni aggiustamento, valuta quale combinazione di parametri raggiunga il comportamento desiderato dalla community e consiglia la versione migliore agli sviluppatori della piattaforma di Facebook. 

    Al fine di creare un ambiente il più realistico possibile, WW è in realtà costruito direttamente sulla piattaforma live anziché su una versione di test separata, un’altra differenza chiave rispetto alla maggior parte delle routine di test. I robot, tuttavia, rimangono dietro le quinte.

    Mentre un utente tipico interagisce con Facebook attraverso un’interfaccia utente front-end, come un profilo e altre funzionalità del sito Web, gli utenti di bot falsi possono interagire direttamente con il codice back-end. Ciò consente loro di coesistere con utenti reali e simulare in modo più accurato diversi scenari sulla piattaforma senza che quegli stessi utenti interagiscano erroneamente con loro.

    Al momento, l’azienda sta usando il sistema per sperimentare e migliorare funzionalità che renderebbero molto più difficile per i malintenzionati violare le linee guida della community della piattaforma. Ma sta studiando anche altre potenziali applicazioni per il sistema, come quelle relative a un maggior coinvolgimento degli utenti. 

    Foto: Ms Tech / Nonsap Visuals / Unsplash

    Related Posts
    Total
    0
    Share