Dopo anni di battaglie per proteggere le vittime delle intimidazioni sessuali basate sullo sfruttamento delle immagini manipolate online, i legislatori hanno finalmente deciso di intervenire.
di Karen Hao
Helen Mort non poteva credere a quello che stava sentendo. C’erano foto di lei nuda su un sito porno, le aveva appena detto un conoscente. Ma mai nella sua vita aveva scattato o condiviso foto intime. Sicuramente ci doveva essere qualche errore. Quando finalmente raccolse il coraggio di guardare, si sentì spaventata e umiliata.
Mort, poetassa e giornalista televisivo a Sheffield, nel Regno Unito, è stata vittima di una campagna pornografica basata sui deepfake. Ciò che l’ha scioccata di più è stato che le immagini erano basate su foto, datate tra il 2017 e il 2019, che erano state prese dai suoi account di social media privati, incluso un profilo Facebook che aveva cancellato.
L’autore del reato aveva caricato queste immagini non intime – foto di vacanze e gravidanza e persino foto di lei da adolescente – ed era stato incoraggiato da altri utenti a modificare il suo viso in foto pornografiche a forte effetto. Mentre alcune erano state modificate con Photoshop e risultavano di scarsa qualità, altre erano spaventosamente realistiche. Quando ha iniziato a ricercare cosa era successo, ha imparato un nuovo termine: deepfakes, vale a dire i media generati e manipolati dall’intelligenza artificiale.
“Ci si sente davvero impotente e colpita in quanto donna con un ruolo pubblico. Un messaggio del tipo: ‘possiamo farti quello che vogliamo’”, ella dice. Ha chiamato la polizia, ma l’agente ha detto che non potevano fare nulla. Ha preso in considerazione l’idea di abbandonare completamente il web, ma non può farlo perché è fondamentale per il suo lavoro.
Inoltre non riusciva a capire chi aveva potuto fare una cosa simile. Era terrorizzata che fosse qualcuno a lei vicino. Ha iniziato a dubitare di tutti, persino del suo ex marito. Erano in buoni rapporti, ma l’aggressore aveva usato il suo nome come pseudonimo. «Non è lui, assolutamente no. Ma è davvero triste che abbia pensato queste cose”, spiega Mort.
Sebbene i deepfake abbiano ricevuto un’enorme attenzione per i loro potenziali pericoli politici, la stragrande maggioranza di essi viene utilizzata per prendere di mira le donne. Sensity AI, una società di ricerca che ha monitorato i video deepfake online da dicembre 2018, ha costantemente scoperto che tra il 90 e il 95 per cento di loro sono porno non consensuale, di cui circa il 90 per cento è riferito a donne. “Si tratta di violenza contro le donne”, afferma Adam Dodge, fondatore di EndTAB, un’organizzazione no profit che denuncia gli abusi abilitati dalla tecnologia.
Nelle sue conseguenze, questo tipo di violazione può essere devastante come il revenge porn: vere foto intime rilasciate senza consenso. Ciò comporta un pedaggio ben documentato per le vittime. In alcuni casi, hanno dovuto cambiare i loro nomi. In altri, hanno dovuto rimuovere completamente il proprio account da Internet. Hanno costantemente paura di essere nuovamente traumatizzate, perché in qualsiasi momento le immagini potrebbero riaffiorare e ancora una volta rovinare le loro vite.
Fortunatamente, movimenti paralleli negli Stati Uniti e nel Regno Unito stanno guadagnando slancio per vietare il deepfake porno non consensuale. L’attenzione potrebbe anche aiutare a vietare altre forme di violenza sessuale basata sull’immagine, che in precedenza erano state trascurate. Dopo anni di sforzi degli attivisti per rendere coscienti i legislatori di queste enormi lacune legali, i deepfake li stanno finalmente costringendo a prestare attenzione.
“Siamo in attesa della grande ondata”
I deepfakes sono iniziati con la pornografia. Nel dicembre 2017, Samantha Cole, una giornalista di “Motherboard”, ha scoperto che un utente di Reddit con lo pseudonimo “deepfakes” utilizzava tecniche sviluppate e rese pubbliche dai ricercatori di intelligenza artificiale per scambiare i volti delle celebrità femminili in video porno. Cole ha cercato di mettere in guardia i lettori: altre donne sarebbero state le prossime.
Il problema ha attirato l’attenzione del pubblico, ma principalmente per la novità della tecnologia. Dopotutto, il falso porno delle celebrità circolava su Internet da anni. Chi lavorava però a stretto contatto con le vittime della violenza domestica, ne ha subito tratto motivo di allarme immediato. “Uno strumento perfetto per qualcuno che cerca di esercitare potere e controllo su una vittima”, afferma Dodge.
È diventato fin troppo facile realizzare falsi nudi di qualsiasi donna. App per questo preciso scopo sono emerse ripetutamente, anche se sono state rapidamente bandite: Deep Nude nel 2019, per esempio e un bot di Telegram nel 2020. Il codice sottostante per “spogliare” le foto di donne continua ad esistere in archivi open-source.
Di conseguenza, la portata dell’abuso è cresciuta: ora gli obiettivi non sono solo celebrità e influencer di Instagram ma persone normali, afferma Giorgio Patrini, CEO e chief scientist di Sensity. Nel caso del bot di Telegram, Sensity ha scoperto che ci sono state almeno 100.000 vittime, comprese ragazze minorenni.
Chi si occupa di questo tipo di manipolazioni si preoccupa anche delle popolari app deepfake create per scopi apparentemente innocui come lo scambio di volti. “Non è un grande salto di immaginazione passare da “‘Posso mettere la mia faccia sul viso di una star in una clip di un film’ a ‘Posso mettere la faccia di qualcun altro su un filmato pornografico’”, dice Sophie Mortimer, che gestisce l’Helpline di Revenge Porn, un servizio britannico di sostegno alle vittime.
Nel contesto della pandemia, questa tendenza è ancora più preoccupante. Mortimer afferma che il carico di lavoro della linea di assistenza è quasi raddoppiato dall’inizio dei lockdown. L’abuso digitale ha visto un aumento poiché le persone sono diventate sempre più isolate e hanno trascorso più tempo online.
Anche se ha dovuto fare i conti solo con forme “artigianali” di deepfake, Mortimer sa che è solo una questione di tempo. “Le persone hanno avuto più tempo per imparare a utilizzare parte di questa tecnologia”, ella afferma. “Stiamo aspettando che arrivi la grande ondata”.
“L’80 per cento delle persone non ha idea di cosa sia un deepfake”
Oggi ci sono poche opzioni legali per le vittime di deepfake porno non consensuale. Negli Stati Uniti, 46 stati hanno vietato il revenge porn, ma solo quelli della Virginia e della California includono media falsi e che fanno uso di deepfake. Nel Regno Unito, il revenge porn è vietato, ma la legge non include nulla che sia stato contraffatto. Oltre a ciò, nessun altro paese vieta il falso porno non consensuale a livello nazionale, afferma Karolina Mania, una studiosa legale esperta del problema.
Ciò lascia solo alcune leggi civili e penali esistenti che possono essere applicate in situazioni molto specifiche. Se il volto di una vittima viene estratto da una foto protetta da copyright, è possibile utilizzare la legge sulla proprietà intellettuale. Se la vittima può dimostrare l’intenzione del colpevole di nuocere, è possibile utilizzare la legge sulle molestie, ma raccogliere tali prove è spesso impossibile, afferma Mania, lasciando senza difese nella stragrande maggioranza dei casi.
Questo si è dimostrato vero per Mort. L’aggressore, che non aveva creato personalmente le immagini pornografiche e non ha usato il vero nome di Mort, aveva seguito una linea attenta per evitare illegalità ai sensi della legge britannica sulle molestie. Anche i post erano stati interrotti un anno prima che lei ne venisse a conoscenza. “Tutto ciò che avrebbe potuto rendere possibile dire che si trattava di molestie mirate intese a umiliarmi, è stato accuratamente evitato”, ella spiega.
Ci sono una miriade di ragioni per cui tali abusi si muovono attraverso le crepe della legge esistente. Per prima cosa, i deepfake non sono ancora una tecnologia ben conosciuta, Dodge organizza regolarmente sessioni di formazione per giudici, professionisti della salute mentale, funzionari delle forze dell’ordine ed educatori o chiunque altro possa incontrare e supportare le vittime di pornografia non consensuale. “Indipendentemente da chi si trova nelle situazioni”, egli afferma, “direi che l’80 per cento delle persone non ha idea di cosa sia un deepfake”.
Dall’altro, poche vittime si sono fatte avanti, a causa della vergogna e delle ulteriori molestie che possono derivarne. Mort è già stata trollata da quando ha condiviso pubblicamente la sua esperienza. “Parlare di queste cose apre la porta ad altri abusi”, ella dice. “Inoltre, ogni volta che lo fai, rivivi di nuovo la brutta esperienza”.
Noelle Martin, che è diventata un’attivista dopo aver scoperto a 18 anni di essere stata vittima di una campagna porno manipolata, è stata successivamente presa di mira con dei deepfake porno più elaborati. Il fatto che il porno contraffatto sia intrinsecamente falso, inoltre, non diminuisce il “disprezzo” nei confronti delle vittime.
Ciò rende difficile per i politici comprendere la portata del problema. Charlotte Laws, che ha approvato con successo la legislazione per vietare il revenge porn in California (il secondo stato a farlo), afferma che le storie delle vittime sono fondamentali per generare volontà politica. Quando il revenge porn era considerato un non-problema, si è impegnata a denunciare casi di vittime che avevano subito danni tangibili alle loro carriere e vite personali, inclusa la figlia adolescente.
Quando un’altra adolescente, Audrie Pott, si è uccisa nel nord della California dopo che le sue foto di nudo sono state pubblicate senza il suo consenso, i legislatori della California si sono finalmente mobilitati, innescando un’ondata di leggi statali in tutto il paese. “Queste storie devono venire fuori, perché è quello che tocca le persone”, dice Laws.
La tecnologia è difficile da regolamentare, tuttavia, in parte perché ci sono molti usi legittimi dei deepfake nell’intrattenimeto, nella satira e nella protezione degli informatori. Le precedenti proposte di legge sui deepfake introdotte al Congresso degli Stati Uniti sono già state respinte in quanto troppo ampie.
“Si tratta di riprendere in mano le nostre vite”
La buona notizia è che la corrente sembra cambiare direzione. La Law Commission britannica, un organismo accademico che rivede le leggi e raccomanda le riforme quando necessario, sta attualmente esaminando quelle relative agli abusi online. Prevede di pubblicare le bozze di raccomandazioni entro le prossime settimane per la consultazione pubblica. Gli attivisti sperano che si possa finalmente espandere il divieto del revenge porn per includere tutte le forme di immagini e video intimi falsi.
Se il Regno Unito andasse avanti con il divieto, diventerebbe il primo paese a farlo, aprendo la strada all’adozione anche negli Stati Uniti e di conseguenza anche alla UE. Ovviamente ci saranno ancora grossi ostacoli. Una differenza fondamentale tra gli Stati Uniti e il Regno Unito è il Primo Emendamento: uno dei maggiori ostacoli all’approvazione di un divieto federale di revenge porn è che viene percepito come una violazione della libertà di parola, afferma Rebecca Delfino, professoressa di diritto presso la Loyola Marymount University.
Charlotte Laws fa eco a questa valutazione in quanto ha lavorato con i membri del Congresso degli Stati Uniti per introdurre un disegno di legge per vietare il revenge porn tre volte, ma tutti questi tentativi hanno naufragato davanti alle preoccupazioni di violare il Primo Emendamento. (Si veda video)
Ma i deepfake rappresentano anche un’interessante opportunità legislativa per le difficoltà legate alla capacità della tecnologia di interferire con le elezioni. Nel 2019, la deputata Yvette Clarke ha introdotto il Deepfakes Accountability Act per affrontare questo problema. Ha messo insieme misure per punire l’interferenza elettorale e la possibilità di ricorso per le persone che subiscono danni personali, come il porno non consensuale.
Il disegno di legge si è bloccato, ma Clarke dice che si sta preparando a reintrodurre una versione rivista entro poche settimane. “La rapida adozione della tecnologia, l’uso dei social media, durante questa pandemia, rende le condizioni mature per approvare effettivamente una significativa legislazione sui deepfake”, ella afferma.
Anche il vicepresidente Kamala Harris è stato a lungo una sostenitrice del divieto federale di revenge porn. “Siamo in un nuovo Congresso”, afferma Clarke. “Ci sono membri al Congresso, al Senato e alla Camera, che considerano i deepfake una minaccia per il nostro modo di vivere e una forma già sperimentata di abuso verso le donne”.
Per quanto riguarda Mort, dice che vedere questa serie di iniziative ha dato un senso a quello che ha dovuto sopportare. Ora sta parlando con il suo membro del Parlamento locale, condividendo la sua esperienza e aiutando a pianificare ciò che può essere fatto. “Mi sento parte di un movimento.
Questo è molto importante per me”, ella spiega. Pochi giorni dopo aver pubblicato una petizione su Change.org, ha presentato un nuovo video in cui recitava una poesia che aveva scritto, nata dal suo trauma. È stato catartico, conclude Mort , trasformare questa brutta esperienza in arte: “Si tratta di riprendere in mano le nostre vite”.
Immagine: Franziska Barczyk