Si stanno moltiplicando le preoccupazioni relative a recenti applicazioni delle tecnologie informatiche e della Intelligenza Artificiale al controllo di singoli individui e di interi gruppi umani, in assenza di adeguate normative nazionali e internazionali.
di Alessandro Ovi e Gian Piero Jacobelli
Quando un problema tende a riproporsi con sempre maggiore frequenza, c’è motivo di preoccuparsi. Nei giorni scorsi, in una delle nostre quotidiane Flash News, Michael Kwet stigmatizzava che una azienda privata sudafricana avesse progettato una “rete di sorveglianza” per controllare i “comportamenti insoliti” delle persone.
La rete in questione, la cui realizzazione ha avuto inizio in un quartiere prevalentemente bianco di Johannesburg, associa un sistema di telecamere con programmi di Intelligenza Artificiale e con l’Internet ad alta velocità, per tenere costantemente sotto controllo le comunità di colore.
Questa utilizzazione su larga scala delle nuove tecnologie informatiche induce crescenti preoccupazioni sul rapporto tra mezzi sempre più penetranti e fini sempre più concentrati nelle mani di un potere, politico sociale economico, ma se si vuole anche scientifico e tecnologico.
Preoccupazioni non inedite, ovviamente, e però di una portata non più limitata a pochi “obiettivi sensibili”, ma estesa a intere nazioni. Inoltre, questi nuovi obiettivi generalizzati riguardano gli aspetti più personali del comportamento individuale, ponendo a “fattore comune” persino le espressioni del viso e la gestualità. In altre parole, la folla viene vista, alla fine, non come una semplice somma di individui, ma come un nuovo individuo da valutare a sé stante.
Dicevamo che una notizia diventa un problema quando tende a ripetersi. In effetti, poche settimane fa abbiamo pubblicato un’altra notizia, questa volta proveniente dalla Cina, in cui la sorveglianza basata sul riconoscimento delle emozioni riguardava un altro letteralmente “stringente” rapporto tra le istanze della sicurezza e il controllo delle minoranze.
La notizia parlava di una installazione basata sul riconoscimento delle espressioni facciali, sul monitoraggio dello sguardo, delle andature e di altre modalità di comportamento nella regione cinese dello Xinjiang, in cui vive una numerosissima minoranza musulmana, per tenerne sotto controllo i segnali di agitazione e di aggressività.
Le preoccupazioni a cui abbiamo già accennato, derivano appunto dall’assoggettamento di queste nuove tecnologie informatiche a vecchi obiettivi di controllo autoritario, che diventa così tanto più assillante e insinuante, sfuggendo alle attuali garanzie legali, nazionali e internazionali.
Ma derivano anche dalle assunzioni di valore che sottostanno a queste applicazioni di controllo e sicurezza: assunzioni che, mutatis mutandis, sembrano riecheggiare le teorie lombrosiane sull’atavismo, sul brigantaggio e sul delitto politico, basate sulla identificazione del criminale attraverso la progressiva diffusione delle fotografie segnaletiche.
Per chi vuole rendersi conto di questi “corsi”, preoccupanti proprio in quanto “ricorsi”, può visitare una mostra inquietante, intitolata I 1000 volti di Lombroso, in corso fino a gennaio presso il Museo del Cinema di Torino, in cui viene presentata una selezione di fotografie dell’Archivio del torinese Museo di Antropologia criminale. Anche in questa caso si tratta di una tecnologia allora innovativa, la fotografia, impiegata per irreggimentare le differenze individuali in categorie antropologiche.
Tanto più preoccupanti, dunque, appaiono gli odierni impieghi della Intelligenza Artificiale, dove i criteri di classificazione non sono affidati alla discrezione, comunque discutibile, di un operatore umano, ma alla convergenza indiscutibile di convenzioni algoritmiche e di arbitrarietà politiche.
Non sapendo quis custodiet ipsos custodes, cioè chi controllerà gli attuali detentori dei saperi e dei poteri tecnologici, non ci resta che sperare nella vichiana “eterogenesi dei fini”!
(gv)