Seguici
Iscriviti alla nostra newsletter

    Quasi tutti i deepfake vengono creati per il porno

    Secondo un rapporto di DeepTrace, un’azienda che sviluppa strumenti per individuare i media manipolati, Internet ospita almeno 14.678 deepfake, ma la maggior parte di loro non è stata creata per condizionare le elezioni.

    di Angela Chen

    I deepfake hanno fatto la loro comparsa alla fine del 2017. La parola era originariamente utilizzata per descrivere il porno falso generato dall’intelligenza artificiale, con i volti di attrici sui corpi di stelle del cinema per adulti.

    Da allora, il significato della parola si è ampliato per riferirsi a qualsiasi tipo di video manipolato, come quello con Mark Zuckerberg che tiene un discorso del tutto inventato su Facebook. Ciò ha alimentato i timori per il futuro della verità e per il potenziale “inquinamento” delle elezioni da parte dei deepfake.

    Il rapporto di DeepTrace ha scoperto che la maggior parte dei video non cercano di influenzare la politica, ma al 96 per cento si trattava di manipolazioni nell’ambito del porno. “I falsi pornografici sono un fenomeno che colpisce e danneggia esclusivamente le donne”, scrivono gli autori.

    I contenuti pornografici sono relativi a donne, attrici e musicisti per lo più famosi e solo una piccola parte di questi video su YouTube prendono di mira uomini. Il numero complessivo dei deepfake non è particolarmente alto, ma è preoccupante che stia crescendo così rapidamente.

    La questione ha attirato l’attenzione dei legislatori. In California, il governatore Gavin Newsom ha appena approvato due progetti di legge che limitano ciò che le persone possono fare con i deepfake. Una legge rende illegale la produzione e la distribuzione di un deepfake politico nei due mesi precedenti le elezioni.

    L’ACLU e la Electronic Frontier Foundation hanno già manifestato la loro opposizione, dicendo che la legge è troppo ampia e danneggerà la diffusione del confronto politico. L’altra legge sui deepfak riguarda il modo in cui le manipolazioni vengono utilizzate e permette alle persone di fare causa se la loro immagine viene inserita in un video porno manipolato senza il loro consenso.

    Immagine: Modelli in posa Ms. Tech; foto originale: Pixabay

    (rp)

    Related Posts
    Total
    0
    Share