Secondo il presidente dell’House Intelligence Committee, nessuno dei tre colossi di Internet – Facebook, Google o Twitter – sembra avere un piano chiaro per gestire i video falsi generati dall’IA, in vista delle elezioni presidenziali del prossimo anno.
di Will Knight
Adam Schiff, un rappresentante democratico della California, ha sostenuto che le tre aziende “hanno iniziato a pensare seriamente ai pericoli legati ai media manipolati dai deepfake, ma che c’è ancora molto lavoro da fare per fronteggiare l’effetto dirompente di questa tecnologia nelle prossime elezioni”.
Il problema è serio, ma non tanto da farsi prendere dal panico. Esistono, infatti, alcune nuove tecnologie per individuare i video che sono stati prodotti con l’IA.
I video manipolati utilizzano i recenti progressi dell’apprendimento automatico per scambiare automaticamente i volti in un video o alterare la realtà in qualche altro modo. Una serie di strumenti per creare deepfake si possono facilmente scaricare dal Web e su Internet sono visibili numerosi esempi di questi prodotti.
La manipolazione delle immagini ha una lunga storia, ma l’intelligenza artificiale sta ora rendendo più semplice la falsificazione di un video. Durante le elezioni, un deepfake potrebbe essere un sistema per influenzare gli elettori.
A maggio, un video di Nancy Pelosi che era stato manipolato per farla apparire in uno stato di confusione mentre pronunciava il suo discorso è circolato rapidamente sui social media.
Al momento, ci sono alcuni modi per riconoscere i deepfake. Per esempio, il lampeggiamento irregolare è un segnale rivelatore dell’alterazione del video. Ma si tratta di una guerra infinita, perché un algoritmo AI può di solito essere addestrato per eliminare un determinato difetto.
A giugno, una nuova ricerca di diversi esperti di diritto legale digitale ha delineato un sistema più efficace che si basa sull’addestramento di un algoritmo di rilevamento per riconoscere i movimenti del viso e della testa di una determinata persona, mostrando così quando il viso di quella persona è stato incollato sulla testa e sul corpo di qualcun altro.
L’approccio funziona solo quando il sistema è stato addestrato per riconoscere qualcuno, ma potrebbe essere in grado di proteggere i candidati presidenziali dagli attacchi.
Google ha in parte finanziato questa nuova ricerca. Ciò potrebbe significare che queste grandi aziende stanno rivolgendo una maggiore attenzione al problema delle manipolazioni in rete.
(rp)