Seguici
Iscriviti alla nostra newsletter

    Non ogni etica è etica

    Poche altre volte nella storia della civiltà occidentale è avvenuto che le problematiche tecnologiche, per lo più relative al binomio efficienza/efficacia, si trovassero tanto associate alle problematiche etiche, anche al di là delle istanze di sicurezza che, per esempio, riguardano le fonti energetiche e quelle farmaceutiche, senza dimenticare la deprecabile, ma permanente “corsa agli armamenti”.

    di Gian Piero Jacobelli 

    Questa stringente e sintomatica associazione si sta verificando oggi a proposito della Intelligenza Artificiale, al punto – come si legge nell’articolo di Abhishek Gupta e Victoria Hearh, che abbiamo pubblicato pochi giorni fa (Gli standard etici dell’AI riflettono la visione dei paesi forti, 14 settembre 2020) – che lo stesso Gupta, ingegnere di machine learning presso Microsoft, ha fondato il Montreal AI Ethics Institute, allo scopo di valutare e se possibile rimuovere le pregiudiziali che si annidano nella Intelligenza Artificiale.

    In poche parole, scrivono i due autori, «i sistemi di Intelligenza Artificiale hanno ripetutamente dimostrato di causare problemi che colpiscono in modo sproporzionato i gruppi emarginati, a vantaggio di pochi privilegiati». I motivi sono facilmente intuibili: a realizzare i sistemi di Intelligenza Artificiale sono soprattutto i cosiddetti “paesi forti” che, anche inconsapevolmente, vengono indotti dalla loro stessa forza a perpetuare una attitudine “imperialistica”. Secondo cui alla tecnologia si attribuisce anche il compito di diffondere i sistemi di valore occidentali, le loro logiche operative e, molto più discutibilmente, quelle visioni del mondo in cui si agitano tutti i pregiudizi relativi alle differenze tra noi e gli altri.

    «Allo stato attuale», sottolinea Gupta, «la riflessione etica nella Intelligenza Artificiale è in buona parte limitata a lingue, idee, problemi che caratterizzano alcune zone, principalmente il Nord America, l’Europa occidentale e l’Asia orientale». Su questa critica ai condizionamenti etici che caratterizzano la Intelligenza Artificiale, non si può non essere d’accordo. Meno d’accordo ci sembra di essere sull’equivoco che si manifesta nella nozione di etica implicita in queste preoccupazioni: una nozione che ci appare irretita negli stessi vincoli pregiudiziali che vorrebbe combattere.

    Come ci è qui avvenuto di rilevare anche in altre occasioni, la dimensione etica non ha molto a che vedere con la dimensione morale, in quanto, mentre questa ultima dipende dai modelli culturali e comportamentali prevalenti, la prima tende a configurare scenari relazionali innovativi, derivanti da incontri e intese imprevedibili. 

    Non avrebbe senso, quindi, o meglio avrebbe il senso di una ulteriore, deprecabile compromissione, ipotizzare una sorta di “etica ottriata”, che ancora una volta i “paesi forti” dovrebbero imporre più o meno implicitamente ai paesi “deboli”, incorporandola in quei dispositivi algoritmici si cui ormai nessuno può fare a meno.

    Tra l’altro, bisogna considerare che la tecnologica “violenza” impositiva di questi modelli digitali di comportamento non concerne soltanto le popolazioni marginali, quelle ancora escluse dai processi della produzione tecnologica, ma riguarda anche le categorie più deboli all’interno della nostra società. Per esempio i bambini, come sottolineava, sempre sulla nostra rivista, Karen Ho in un articolo del 18 settembre 2020.

    I bambini, in altre parole, sono spesso in prima linea quando si tratta di utilizzare la Intelligenza Artificiale, venendone al tempo stesso utilizzati, e ciò può creare danni, in quanto «si stanno sviluppando intellettualmente, emotivamente e fisicamente e di conseguenza sono molto modellabili». Così affermava Steve Vosloo, esperto di politiche per la connettività digitale presso l’Unicef, il Fondo delle Nazioni Unite per l’infanzia.

    Anche in questo caso, tuttavia, i suggerimenti “etici” risentono di una concezione ottriata dei valori in gioco, nonostante L’Unicef ​​abbia precisato che sono stati presi in considerazione i bambini di tutto il mondo. “Per educarli meglio”, potrebbe per altro obiettare qualcuno, interrogandosi su quali competenze, inevitabilmente interessate, verranno chiamate a valutare quel “meglio”.

    Rispetto al problema delle componenti che la Intelligenza Artificiale contribuirebbe a tenere “fuori gioco”, la sistematica attenzione per l’infanzia appare determinante, dal momento che si sta traducendo in più specifici e incisivi metodi formativi, da cui scaturirà una maggiore conformità culturale all’interno delle società di riferimento, con la perpetuazione e il consolidamento dei loro stereotipi valutativi.

    Almeno a una prima riflessione, non ci rassicura che questa stessa impostazione programmatica e sostanzialmente coercitiva attecchisca non soltanto in Occidente, ma anche in Oriente, dove, per esempio, «l’Accademia di Intelligenza Artificiale di Pechino (BAAI), un’organizzazione sostenuta dal Ministero cinese della scienza e della tecnologia e dal governo municipale di Pechino, ha rilasciato una sua volta una serie di principi di Intelligenza Artificiale per i bambini ». 

    In altre parole, non ci rassicura pensare che, invece di rispondere a un “impero”, la Intelligenza Artificiale, tradotta in “principi formativi”, risponda a due “imperi”. A nostro avviso, la separazione sociale e culturale del mondo, con il conseguente arroccamento in difesa della propria, sempre più “imperiosa” visione del mondo, non appare concepibile e proponibile in termini etici.

    L’etica, infatti, dovrebbe sollecitare e agevolare la rimozione, o quanto meno la dialettizzazione dei convenzionali e “infeudati” modi di pensare, creando inedite e imprevedibili occasioni di incontro e di confronto con il nuovo e il diverso.

    Al contrario, sempre più di frequente dobbiamo constatare come ci tenga avvinti a una condizione in cui bisogna sistematicamente “guardarsi le spalle”: il che comporta una inevitabile e frustrante rinuncia a “guardare avanti”.

    (gv)

    Related Posts
    Total
    0
    Share