Dopo anni di discussioni piuttosto generiche, si comincia a comprendere che le istanze etiche riguardano i fini e non i mezzi e che i fini riguardano gli uomini e non le macchine, anche se, con la Intelligenza Artificiale, i fini vengono incorporati nelle macchine, talvolta alla insaputa di chi dovrà utilizzarle.
di Gian Piero Jacobelli
Scorrendo la nostra Home Page, si rileva ancora una volta, tra gli spazi stretti della pandemia e gli spazi larghi delle esplorazioni marziane, il ruolo fondamentale della Intelligenza Artificiale, che sembra occupare tutta la linea del tempo proiettandola dall’oggi al domani.
Intelligenza Artificiale protagonista in ogni settore della ricerca e della innovazione produttiva, ma proprio per questo diffuso protagonismo anche maggiore indiziata come fattore di catalizzazione di tutte le incertezze e le contraddizioni di una civiltà (in tutti i sensi, tecnologici e relazionali) che dopo i successi registrati nel secolo scorso, appare sempre più e paradossalmente alla ricerca di se stessa.
Inevitabilmente viene da chiedersi perché aspettative talvolta persino inflazionate finiscano per coniugarsi con preoccupazioni altrettanto assillanti, in merito a qualcosa che molti ritengono uno strumento ormai indispensabile e molti altri un potenziale concorrente delle facoltà umane, tanto nelle attività conoscitive quanto in quelle esecutive.
Sarebbe facile rispondere semplicemente che ogni innovazione, soprattutto quando non si limita a migliorare le tradizionali prestazioni “manifatturiere”, ma ne cambia gli stessi criteri procedurali, crea inevitabili sconcerti e scompensi. Ma in questo caso ci sembra di intravedere qualcosa di più profondo e sostanziale, una sorta di contraddizione in termini che concerne le parole stesse.
Si parla di “intelligenza”, non soltanto perché può svolgere compiti non limitati alla mera attuazione di istruzioni prestabilite, ma può autonomamente formularne di nuove in ragione del mutare delle circostanze e delle situazioni. E si parla di “artificiale” perché si ritiene che questa nuova intelligenza debba in qualche modo trarre ispirazione, mutuandone i meccanismi essenziali, dalla vecchia intelligenza umana.
Per esempio, qualche giorno fa, il 18 aprile, Siobhan Roberts scriveva a proposito delle ricerche di Geoffrey Hinton, uno dei pionieri della Intelligenza Artificiale, che si sta cercando di «modellare la percezione umana in una macchina» in grado di «elaborare e rappresentare le informazioni visive in una rete neurale», basandosi sul principio della analogia, fino ad auspicare che queste reti neurali giungano «a sbagliare come fanno le persone, per capire dove nasce l’errore».
Ma, se non si può evitare di fare riferimento alle funzionalità del corpo umano per individuare eventuali possibilità di renderle più efficienti ed efficaci, la pretesa che queste funzionalità “artificiali” si sostituiscano a quelle “naturali” invece di limitarsi a integrarle, presuppone un fondamentale equivoco sulla relazione tra mezzi e fini.
In effetti, per quanto concerne i mezzi artificiali la pretesa analogia rispetto a quelli umani potrebbe costituirne persino un limite, dal momento che l’impiego di materiali e sistemi non organici resterebbe suscettibile di sviluppi anche più originali e performanti. Ma quando si chiamano in causa i fini, risulta del tutto evidente che i problemi stanno altrove: non nelle macchine, che restano macchine, anche se progettate per specifici e talvolta discutibili impieghi, ma in chi appunto le progetta e le impiega secondo logiche che più umane non si può.
Se ne è discusso qualche giorno dopo, il 23 aprile, in un articolo di Douglas Heaven a proposito della pubblicazione dei nuovi regolamenti della Unione Europea sulla Intelligenza Artificiale, con specifico riferimento alla sorveglianza di massa e alla manipolazione ideologica e commerciale. Per altro, rilevare come i sistemi di riconoscimento facciale o gli algoritmi di promozione dei consumi manifestino orientamenti discriminatori non significa che alla sbarra venga chiamata la tecnologia in quanto tale, ma soltanto chi ne fa uso in modi impropri, anche perché occulti e quindi non controllabili.
In questo senso, come sottolineava il 24 aprile Karen Hao, la Intelligenza Artificiale non si può definire davvero “intelligenza”, nella misura in cui resta sottomessa – fortunatamente, si potrebbe anche pensare – alle intenzioni e agli interessi di chi la gestisce e la esercita.
In altre parole, proprio il fatto di parlare di una Intelligenza Artificiale, quasi si trattasse di una presenza consapevole, su cui vengono caricate responsabilità che dovrebbero venire più propriamente indagate presso chi ne concepisce e ne esercita le varie funzioni, finirebbe per rivelarsi come una prospettiva di comodo, utile a distrarre l’attenzione sui reali processi decisionali.
Quando Kate Crawford, autrice del libro Atlas of AI, afferma che «l’Intelligenza Artificiale non è né artificiale né intelligente», allude appunto all’inganno insidioso che si nasconde dietro la umanizzazione dell’artificiale e la artificializzazione dell’umano.
Un inganno che si riflette nelle ormai innumerevoli e per lo più sconcertanti riflessioni su una presunta “etica” della Intelligenza Artificiale, che ancora una volta non fa se non spostare il problema là dove il discorso sulle umane responsabilità finisce per perdersi in una irresponsabilità davvero artificiale.
(gv)