Secondo un esperto di diritti dell’uomo, le armi interamente autonome andrebbero abolite prima ancora che vengano sviluppate.
di Mike Orcutt
Uno dei robot killer cinematografici più famosi è interpretato dall’attore Arnold Schwarzenegger in Terminator.I delegati delle Nazioni Unite alla Convention on Certain Conventional Weapons si stanno incontrando a Ginevra per discutere di armi interamente autonome – macchine che potrebbero decidere di uccidere qualcuno senza l’input di un essere umano. Sebbene una tecnologia simile non esista ancora, alcuni esperti di sicurezza nazionale sostengono che potremmo presto vederla realizzata, tenendo in considerazione lo sviluppo di sistemi di difesa missilistica “semi autonomi” e aeroplani in grado di decollare, volare ed atterrare senza il diretto controllo di un essere umano.
Ad oggi, è una persona a premere il pulsante quando un drone spara sul bersaglio, ma nel futuro prossimo le nazioni potrebbero decidere di provare a sviluppare armi che non necessitano di un essere umano nell’esecuzione di una simile azione. In vista dell’incontro, un gruppo della Law School and Human Rights Watch di Harvard ha pubblicato un rapporto che richiede l’applicazione di un trattato internazionale con cui bandire il prima possibile queste tecnologie. Bonnie Docherty, un’oratrice della Harvard Law School e ricercatrice senior presso la Human Rights Watch, ha parlato con Mike Orcutt di MIT Technology Review.
Considerato che le armi interamente autonome non esistono ancora, la decisione di richiederne il bando non è prematura?
Riteniamo che questa sia una tecnologia che potrebbe rivoluzionare le guerre, e pensiamo che sia meglio agire adesso, prima che i paesi investano troppe risorse in questa tecnologia e decidano di continuare a perseguirla. Troppi problemi sono legati a queste armi, fra cui i timori dal punto di vista etico e legale, le modalità di attribuzione delle responsabilità e il rischio di una corsa alle armi, giusto per citarne alcuni. Il principio precauzionale sostiene che in caso di minaccia seria al bene pubblico, persino incertezze scientifiche come queste non dovrebbero contrapporsi alla prevenzione del pericolo.
La definizione di un’arma “interamente autonoma” non è complessa?
La nostra definizione, che non è tanto una definizione legale quanto una pensata per mettere tutte le persone al corrente, è un sistema di armi in grado di selezionare ed uccidere i propri bersagli senza quello che noi descriviamo come un significativo controllo umano. Per la formulazione di un trattato servirebbe una definizione più dettagliata del controllo umano, ma riteniamo che la nostra sia un buon punto di partenza.
è quando si perde il controllo umano che si supera un confine verso qualcosa che la maggior parte delle persone non desidera.
Oltre agli errori che potrebbero portare all’uccisione di civili da parte di armi autonome, quali sono alcuni dei problemi legali che questi sistemi potrebbero causare?
Se queste macchine venissero realizzate, nessuno potrebbe essere ritenuto responsabile in caso di una loro violazione delle leggi internazionali. Sotto le leggi esistenti, il programmatore, il costruttore, il comandante e l’operatore non sarebbero perseguibili.
è anche il caso di precisare che il nostro rapporto guarda sia al codice civile che a quello penale, ed abbiamo scoperto che in entrambi i casi esistono diverse lacune nel contesto della responsabilità. Persino nel codice civile, che presenta standard più bassi per la definizione di una responsabilità, il programmatore o il costruttore non potrebbero essere considerati responsabili perché l’esercito ed i suoi fornitori godrebbero dell’immunità.
Questi sono solo alcuni dei problemi evidenti. A livello internazionale esiste una lacuna domestica, civile e penale per la quale conviene preoccuparsi subito.
(MO)