Seguici
Iscriviti alla nostra newsletter

    Cinque modi per controllare le manipolazioni online

    Anche se, a oggi, la maggior parte dei deepfake vengono prodotti nell’ambito del settore porno, questi falsi sono diventati un simbolo dell’incertezza di stabilire cosa è vero e, per alcuni, un potenziale strumento per “indirizzare” le elezioni.

    di Angela Chen

    Tutti, dal governo degli Stati Uniti ai giganti della tecnologia alle start-up, stanno cercando di sviluppare la tecnologia del deepfake. Ma un nuovo rapporto pubblicato da “Witness”, un’organizzazione no profit che studia i media sintetici, sottolinea come questi strumenti potrebbero creare seri problemi.

    Il video manipolato non è una novità e anche il miglior sistema di rilevazione di deepfake non può stabilirne la veridicità. Sapere che un video è stato modificato non risponde automaticamente alla domanda se debba essere rimosso. Per esempio, come ci si deve comportare nel caso della satira?

    Ciò non ha impedito ad aziende come Amber Video, Truepic ed eWitness di sviluppare una varietà di tecniche per firmare, geotaggare e convertire in timestamp un’immagine o video quando viene creato. In teoria, questi sistemi rendono più facile dire se i media sono stati manomessi.

    Allora, qual è il problema? Il rapporto Witness illustra 14 diversi modi in cui queste tecnologie potrebbero effettivamente diventare dannose. Alcuni dei principali sono:

    1. Gli strumenti in costruzione potrebbero essere usati per sorvegliare le persone
    2. Le restrizioni tecniche potrebbero impedire a questi strumenti di funzionare nei luoghi in cui sono maggiormente necessari e chi utilizza hardware non aggiornato potrebbe essere lasciato indietro
    3. I dispositivi che hanno applicato il jailbreak non saranno in grado di acquisire materiale verificabile
    4. Le aziende potrebbero eliminare i dati o impedire alle persone di controllarli
    5. Le richieste di verifica nei tribunali potrebbero rendere il processo legale più lungo e più costoso

    Non esiste una soluzione semplice a questi problemi, afferma Sam Gregory, il direttore del programma di “Witness”. A suo parere, le aziende che sviluppano queste tecnologie devono pensare alle persone che hanno maggiori probabilità di essere danneggiate e impegnarsi a risolvere i problemi. Inoltre, è possibile creare strumenti di media sintetici rispettando delle regole etiche.

    L’esperto di tecnologia Aviv Ovadya, per esempio, ha avanzato delle proposte su come realizzare strumenti di deepfake responsabili. Le aziende possono fare del loro meglio per controllare quali clienti sono autorizzati a utilizzare i propri strumenti e penalizzare esplicitamente coloro che violano le loro norme. I media sintetici diventeranno d’uso comune e sarà necessario lavorare su più campi per garantire la sicurezza di tutti.

    (rp)

    Related Posts
    Total
    0
    Share