Un’applicazione di intelligenza artificiale che sveste le donne è la riprova che i deepfake colpiscono i più vulnerabili.
di Karen Hao
L’attenzione attorno ai deepfake e alle manipolazioni mediali è cresciuta negli ultimi mesi. Ma mentre la conversazione si è concentrata principalmente sul suo potenziale impatto sulla politica, diversi esperti di diritti umani e di etica tecnologica hanno messo in guardia su un altro potenziale danno a una prima analisi trascurato: le possibili conseguenze devastanti per le donne e altre fasce di popolazione vulnerabili prese di mira dai falsi tecnologici.
Il deepfake più recente – un’app chiamata DeepNude che spoglia le donne – sta evocando gli incubi peggiori. Segnalata in prima battuta da “Vice”, l’applicazione utilizza reti antagoniste generative, o GAN, per togliere i vestiti alle donne e mostrare i loro corpi nudi in forme realistiche. L’articolo della rivista ha immediatamente dato vita a una reazione virale e il creatore di Deepnude ha eliminato l’applicazione.
“DeepNude conferma i nostri timori sul modo in cui gli strumenti audiovisivi possono essere indirizzati contro le donne”, afferma Mutale Nkonde, una ricercatrice del Data & Society Research Institute, che ha ispirato una proposta di legge presentata al Congresso dalla rappresentante democratica Yvette Clarke per chiedere il risarcimento legale da parte delle vittime per i danni alla reputazione.
L’applicazione ha preso di mira in modo specifico le donne. “Vice” ha scoperto che il software generava solo immagini del corpo femminile, anche quando gli veniva sottoposta un’immagine di un uomo. Il creatore anonimo ha confermato di aver addestrato l’algoritmo GAN solo su foto di donne nude, in questo caso più di 10.000, perché erano più facili da trovare online. Tuttavia, ha aggiunto di avere intenzione di creare anche una versione maschile.
Sebbene i deepfake non rappresentassero i corpi reali delle donne, in quanto opera dell’algoritmo, erano comunque in grado di provocare un significativo danno emotivo e alla reputazione. Le immagini possono facilmente essere scambiate per la realtà e utilizzate come vendetta a sfondo sessuale o come strumento di ricatto per mettere a tacere le donne.
In India, si è verificato un episodio simile. Una giornalista ha visto una donna con il suo volto in un video porno, poco dopo aver denunciato la corruzione del governo. Il filmato è diventato virale, esponendola a continue molestie e minacce di stupro, al punto da dover rinunciare a comparire sui social.
I deepfake non sono una minaccia nuova; le manipolazioni mediali sono in circolazione da molto tempo prima dell’avvento dell’IA. Ma la tecnologia ha accelerato e ampliato le tendenze esistenti, afferma Sam Gregory, responsabile del programma di Witness, un’organizzazione senza scopo di lucro che si occupa di diritti umani.
Gli algoritmi hanno reso più semplice per molte persone generare falsi sempre più convincenti. Pertanto, tutto ciò che le persone usavano per manipolare i media in passato, come la presunta corruzione o l’inquinamento delle prove, potrebbe diventare un modo d’agire sempre più esteso e difficilmente rilevabile.
L’applicazione segue la stessa logica. L’abuso sessuale basato sulle immagini femminili era già un problema da prima. Ora i deepfake stanno alimentando l’incendio.
Nkonde si preoccupa del fatto che le donne non saranno gli unici bersagli facili da colpire. Le minoranze, le persone LGBTQ e altri gruppi spesso soggetti alle più gravi molestie online diventeranno probabilmente le prossime vittime, anche se con modalità diverse.
Durante la campagna presidenziale statunitense del 2016, per esempio, gli agenti russi hanno usato falsi afroamericani e immagini correlate come parte di una campagna di disinformazione su Facebook per accrescere le tensioni razziali tra gli americani. “Questo è stato un nuovo modo per manipolare gli elettori attraverso l’appropriazione indebita delle identità delle persone online”, dice Nkonde.
Che tipo di azioni si possono intraprendere per ostacolare le manipolazioni? Secondo Nkonde e Gregory, le aziende e i ricercatori che producono strumenti per deepfake devono allo stesso tempo investire in contromisure da inserire direttamente nelle loro piattaforme. Nkonde sollecita anche i legislatori ad agire rapidamente e aggiunge: “A meno che il governo non trovi un modo per proteggere i diritti dei consumatori, le applicazioni come Deepnude prolifereranno”.
“La tecnologia non è neutrale”, conclude Gregory. “Immagini e video falsi vengono creati ad arte con il solo intento di nuocere. Dobbiamo aprire un confronto sul versante etico di quanto viene prodotto e sulla condivisione di strumenti multimediali generativi”.
(rp)