Google ha rilasciato un gigantesco database di video manipolati, tra cui 3.000 video generati dall’IA che sono stati realizzati utilizzando vari algoritmi disponibili al pubblico, per aiutare a combattere i deepfake.
di Karen Hao
Nell’ultimo anno, gli algoritmi generativi sono diventati così bravi a sintetizzare i media che ciò che producono potrebbe presto diventare indistinguibile dalla realtà. Gli esperti stanno correndo al riparo per trovare metodi più avanzati di quelli attuali per rilevare i deepfake, in particolare con l’avvicinarsi delle elezioni presidenziali statunitensi del 2020.
Pochi giorni fa, Google ha rilasciato un database open source contenente 3.000 video manipolati originali come parte del suo contributo per accelerare lo sviluppo di strumenti di rilevamento dei deepfake.
L’azienda ha collaborato con 28 attori per registrare video mentre parlavano, replicavano espressioni comuni e svolgevano compiti banali. Quindi ha usato alcuni algoritmi disponibili pubblicamente per modificare i loro volti.
All’inizio di questo mese, Facebook ha annunciato che avrebbe rilasciato un database simile verso la fine dell’anno. A gennaio, un team accademico guidato da un ricercatore della Technical University of Munich ha creato un dataset chiamato FaceForensics ++, utilizzando quattro metodi comuni di manipolazione del viso su quasi 1.000 video di YouTube.
Con ciascuno di questi set di dati, l’idea è la stessa: creare un ampio corpus di esempi che possano aiutare a formare e testare strumenti di rilevamento automatizzati.
Il problema, però, è che una volta sviluppato un metodo di rilevamento per sfruttare un difetto in un particolare algoritmo di generazione, l’algoritmo può essere facilmente aggiornato per correggerlo.
Di conseguenza, alcuni esperti stanno ora cercando di introdurre metodi di rilevamento che diano per scontata la perfezione delle immagini sintetiche. Altri sostengono che la repressione dei deepfake non si realizzerà solo con mezzi tecnici: richiederà invece soluzioni sociali, politiche e legali per eliminare i presupposti che incoraggiano la loro creazione.
Immagine: Per gentile concessione di Google
(rp)