Man mano che i deepfake migliorano di qualità, le aziende si stanno affrettando a sviluppare tecnologia per fronteggiarli, ma le conseguenza negative non saranno affrontate con successo se non saranno approntate soluzioni in campo sociale e legale.
di Angela Chen
Si immagini di avere a disposizione un rilevatore di deepfake che non sbaglia un colpo e aggiunge all’istante una grande etichetta rossa con su scritto FALSO a ogni video che è stato manipolato con AI, non importa quanto perfettamente realistico possa apparire il video.
Potrebbe sembrare proprio ciò di cui abbiamo bisogno per combattere i deepfake, che si teme possano portare alla fine del concetto condiviso di verità e alla morte della democrazia.
I video manipolati “perfettamente reali” potrebbero fare la loro comparsa in massa nei prossimi sei mesi e far diventare la campagna elettorale presidenziale degli Stati Uniti del 2020 un campo di battaglia di video falsi: Donald Trump che ammette di aver stipulato accordi segreti con la Russia, Elizabeth Warren che sostiene un bando totale alle armi, Kamala Harris che denigra i bianchi.
Finora, gli esperti hanno risposto schierando più tecnologia. Il governo degli Stati Uniti ha finanziato un progetto sulla “media forensics”, vale a dire la validazione, identificazione, analisi e presentazione di “prove” in campo digitale. Facebook e Microsoft hanno recentemente annunciato il loro impegno per il rilevamento di deepfake e Google ha rilasciato un gigantesco database di deepfake per combattere i deepfake.
Ma secondo Britt Paris, una esperta di informazione alla Rutgers University e coautrice di un recente rapporto di Data & Society sui deepfake, mentre la tecnica di creazione dei falsi è nuova, il danno reale che provocano – disinformazione e molestie – è ben conosciuto. Un rilevatore di deepfake perfettamente accurato non può porre rimedio a questi danni, per tre ordini di motivi che vado a elencare.
1) Problema: i rilevatori di deepfake non possono dirci cosa dovrebbe — e non dovrebbe — essere rimosso
Si pensi al video in cui Nancy Pelosi si muoveva in modo lento, come se avesse bevuto. Non si trattava di un deepfake. ma diffondeva messaggi falsi, eppure Facebook ha deciso di non cancellarlo.
Un rilevatore di deepfake non avrebbe aiutato in questo caso. “Più i meccanismi sono automatici, maggiore è la probabilità che si abbiano imprecisioni o censure”, afferma Kate Klonick, docente all’Università di St. John e esperta di governance della piattaforma. “Fornire una definizione di satira, notizie false, finzione: stiamo parlando in realtà di domande di ordine filosofico”.
Proposta: maggiore capacità di moderazione
Una soluzione potrebbe essere quella di dare più potere ai cosiddetti moderatori di contenuti umani. A tal fine, questa figura di mediatore potrebbe essere pagata di più, ricevere una formazione più adeguata ed essere considerata una componente essenziale al mantenimento di una rete sicura, dice Sarah T. Roberts, esperta di informazione all’UCLA.
Team specializzati di moderatori potrebbero giudicare il contesto di un video, verificarlo e decidere se deve rimanere su una piattaforma. Potrebbero non avere la risposta perfetta per quel video di Pelosi, ma potrebbero valutare e limitare l’impatto sociale e politico delle manipolazioni. Potrebbero stabilire, per esempio, che un deepfake in cui si presenta la parodia di Nicolas Cage può essere tollerato mentre un porno falso assolutamente no.
Chi altri potrebbe essere qualificato per emettere un giudizio su un deepfake? La vittima del falso. Dovrebbero essere semplificate la procedure per la denuncia di molestie, afferma Danielle Citron, esperta di cyberlaw alla Boston University. Tutti gli utenti dovrebbero essere istruiti sui loro diritti e i passaggi per la segnalazione dovrebbero essere ovvi e accessibili, non sepolti nelle righe illeggibili delle regole sulla privacy.
2) Problema: la tecnologia di rilevamento dei deepfake potrebbe non aiutare le persone che hanno più bisogno di protezione
La storia ha dimostrato che la nuova tecnologia viene utilizzata contro le minoranze e i gruppi emerginati – come donne, persone di colore, persone LGBT e attivisti politici – prima di diventare una minaccia per tutti, afferma Paris. Negli anni 1990, per esempio, c’erano già grezze immagini Photoshopped di teste di donne sui corpi di attrici cinematografiche impegnate in film per adulti.
I politici non avevano alcun interesse a fare qualcosa al riguardo. “Se avessimo prestato attenzione al problema dello sfruttamento sessuale delle donne a prescindere dalle denunce delle vittime, allora saremmo in una posizione di gran lunga migliore per affrontare il fenomeno socialmente, legalmente e culturalmente ora”, afferma Mary Anne Franks, esperta di legge dell’Università di Miami.
La storia si ripete. I ricercatori affermano che il rischio maggiore di deepfake non è la manipolazione delle elezioni, ma le forme di coercizione che possono essere esercitate sui singoli cittadini.
Proposta: prima di fare qualcosa, ascoltare sempre le vittime
Parlare con le persone più esposte ai deepfake è essenziale, afferma Sam Gregory, direttore del programma di Witness, un’organizzazione no profit che studia i “synthetic media”. Anche se l’obiettivo è quello di creare un rilevatore di deepfake, ci sono molte questioni sociali coinvolte. Sarà estendibile anche a chi vive in altri paesi? Sarà pronto a individuare i falsi in ambito politico o forme di discriminazione sessuale e di genere?
“Una volta impostata la linea di azione, sono i più emarginati a rimanere esclusi, perché non hanno la possibilità di intervenire per cambiare la direzione intrapresa”, spiega Gregory.
3) Problema: il rilevamento di Deepfake arriva troppo tardi per aiutare le vittime
Con i deepfake, “c’è poca possibilità di ricorrere in tempi utili contro l’uscita di un video o un audio manipolati”, afferma Franks, dell’Università di Miami.
Le leggi esistenti sono inadeguate. Le sanzioni per la condivisione di informazioni private legittime come le cartelle cliniche non si applicano ai video falsi, ma solo a quelli che procurano danni oggettivi.
Le leggi contro il furto di identità sono “incredibilmente limitate”, continua Franks, e si concentrano sul rendere illegale impersonare un medico o un funzionario del governo. Le leggi sulla diffamazione riguardano solo identità false che forniscono un’immagine negativa, mentre Franks è dell’avviso che dovremmo essere preoccupati anche dei falsi che ritraggono le persone anche in una luce positiva.
Proposta: nuove leggi
I legislatori del Texas e della California hanno cercato di introdurre progetti di legge per vietare i deepfake e Yvette Clarke, una deputata statunitense di New York, ha recentemente introdotto una legislazione federale chiamata DEEPFAKES Accountability Act. Ciò costringerebbe le società di social media a costruire strumenti di rilevamento migliori nelle loro piattaforme e consentirebbe di punire o imprigionare le persone che pubblicano deepfake dannosi.
Da parte loro, Franks e Citron stanno lavorando su un disegno di legge federale per sanzionare i cosiddetti “falsi digitali”, vale a dire qualcosa che una persona ragionevole riterrebbe reale. Questo prodotto manipolato deve anche essere suscettibile di causare danni a una determinata persona o all’ordine pubblico, come nel caso di un video falso che mostri una persona di religione musulmana che commette un crimine.
Una legge di questo tipo, negli Stati Uniti, può essere promulgata solo a livello federale, e non statale. A causa di una legge chiamata Sezione 230, le società di piattaforme non sono legalmente responsabili dell’hosting di contenuti di terze parti dannosi a meno che non si violi la legge penale federale.
Se pubblicare video dannosi diventasse un crimine, le aziende non si potrebbero più limitare a dissuadere le persone dal pubblicarli; piattaforme come Facebook dovrebbero impegnarsi di più per non accettarli. “Queste aziende non sarebbero in grado di invocare la Sezione 230 a loro difesa”, afferma Franks. “Avrebbero altre possibili difese, ma quella strada particolare per loro sarebbe bloccata”.
(rp)