Ancora una volta la Intelligenza Artificiale, ma questa volta per riflettere su come le ricorrenti istanze di una consensuale “etica” delle macchine intelligenti possano costituire di fatto un ostacolo alla emergenza di autentici fattori innovativi.
di Gian Piero Jacobelli
Ogni giorno qualche nuova notizia richiama la nostra attenzione sulla Intelligenza Artificiale, o almeno su qualcosa, non sempre la stessa cosa, su cui gli autori di quelle notizie pongono la etichetta di Intelligenza Artificiale. Sarà bene tenere presente questa precisazione se, come ci accingiamo a fare, vogliamo cercare di capire meglio cosa stia succedendo in questa ormai globale piattaforma innovativa che sta trasformando non soltanto tutti i settori produttivi, ma anche quelli più direttamente afferenti alle nostre quotidiane esperienze di vita.
Ovviamente, ognuno si sente più o meno sollecitato dalle notizie che riguardano i suoi specifici settori di interesse e quindi non tutte le notizie riscuotono la stessa attenzione o forniscono motivi di particolare riflessione. Per quanto ci riguarda, poiché ci occupiamo prevalentemente di leggere e scrivere, componendo parole e immagini in discorsi quanto possibile articolati e perspicui, ci ha molto impressionato la notizia di pochi giorni fa, quindi ancora sulla nostra Home Page, relativa ai risultati del laboratorio OpenAI di San Francisco, in cui sono stai messi a punto originali algoritmi per la elaborazione di parole e immagini.
Questi algoritmi si stanno dimostrando capaci di completare in maniera attendibile frasi appena accennate e ora anche di completare immagini rilevabili solo parzialmente. Il modello di elaborazione, che si chiama GPT-2, sulla base degli innumerevoli esempi disponili in Internet, in buona sostanza sta autonomamente imparando a predire statisticamente quale parte di una frase potrebbe seguire a un’altra parte e quale parte di una immagine potrebbe seguire alla parte disponibile.
Colpiscono i primi risultati non tanto perché lasciano intendere una volta di più come anche le attività creative dell’uomo possano venire replicate da una macchina se alla macchina si mettono a disposizione dati sufficienti; quanto, invertendo la prospettiva, perché contribuiscono a renderci consapevoli di come l’uomo agisca in maniera analoga, vivendo una grande parte della propria vita “come se”: come se – scriveva Eugenio Montale in una splendida poesia di Ossi di Seppia, intitolata “Forse un mattino andando” – voltandoci all’improvviso ci accorgessimo dell’“inganno consueto” di un mondo che esiste solo su “uno schermo”. Come se, in altre parole, dovessimo ogni volta ricomporre quel mondo “lavorando con piccoli indizi”, come scriveva il critico letterario Mario Lavagetto.
Spesso, dunque, le macchine intelligenti, a cui oggi diamo il nome di Intelligenza Artificiale, ci fanno capire come, per dirla in breve, la nostra vita non sia prettamente nostra, ma derivi da modelli di comportamento e abitudini relazionali che tendono a ripetersi tenacemente nel tempo, rendendo difficile porre in atto un concreto e continuativo processo di innovazione.
Non a caso, nelle ultime settimane e nel moltiplicarsi delle notizie sulla Intelligenza Artificiale, sempre più spesso gli argomenti affrontati si riferiscono non tanto a questa o quella innovazione tecnologica, organizzativa o logistica, ma a quelli che si potrebbero definire come “risvolti etici”: quei risvolti in cui si celano sostanziali ancorché inavvertite trasformazione nel nostro modo di percepire il mondo e le relazioni con gli altri.
Per esempio, retrocedendo ancora di qualche giorno nella nostra Home Page, colpisce un articolo in cui Karen Hao si chiede se la Intelligenza Artificiale possa essere neutrale, interrogandosi sulle basi teoriche e sulle manifestazioni concrete dei cosiddetti “pregiudizi algoritmici”: quelli, per intenderci, che prendono decisioni sulla base di implicite categorie “di potere”, di cui non ci si rende nemmeno conto, ma da cui invece le macchine, esplorando le ormai infinite basi di dati, recepiscono orientamenti di valore e criteri di scelta.
Appare certamente importante che da questo interrogativo possa nascere una nuova “consapevolezza algoritmica”, una sorta di “algoretica”, anche se restiamo convinti che non si debba eccedere: che, in altre parole, la responsabilità non possa maturare davvero nello “specchio” delle macchine, per quanto sofisticate, ma debba venire ricercata dentro di noi, nella esplicitazione di quelle tracce “ideologiche”, individuali e collettive, in cui le cosiddette “relazioni asimmetriche” restano annidate.
Perciò nonostante la titolazione incoraggiante, non possiamo nascondere la nostra perplessità nel leggere, sempre sulla nostra Home Page, un articolo di circa un mese fa in cui Will Douglas Heaven affermava la esigenza di una “nuova etica” per la Intelligenza Artificiale, con riferimento alle ricerche di Jess Whittlestone del Center Leverhulme for the Future of Intelligence della Università di Cambridge.
Whittlestone affermava di avere trascorso due anni ad analizzare le varie iniziative in merito ai problemi etici della Intelligenza Artificiale: “Rispetto, per esempio, all’etica biomedica, le linee guida che abbiamo per l’IA appaiono poco operative. Si concentrano troppo su principi di alto livello. Siamo tutti d’accordo sul fatto che l’IA dovrebbe essere usata per il bene comune. Ma cosa significa veramente? E cosa succede quando i principi di alto livello entrano in conflitto?”.
Giustamente Whittlestone criticava che “l’etica della IA tenda a rispondere ai problemi esistenti invece di anticipare quelli nuovi”, aggiungendo che “dobbiamo pensare all’etica in modo diverso. Non dovrebbe essere qualcosa di marginale o un peso da trascinare. Dovrebbe semplicemente essere parte del modo in cui costruiamo questi sistemi, un perno intorno al quale si muovono i progetti”.
In effetti, troppo spesso si utilizza il termine “etica”, che comporta comunque una personale e specifica assunzione di responsabilità, in maniera arbitraria, confondendola con la “morale”, che presuppone il rispetto di regole prestabilite, e magari con il “politicamente corretto”, piuttosto che sollecitare autentici “progetti di futuro”, innovativi e promettenti.
Da questo punto di vista, il “rischio etico” non sta nella “differenza” delle visioni del mondo, ma nella “ripetizione” più o meno consapevole di un sistema di interessi che si riproduce anche grazie al crescente “effetto di ridondanza” tra uomini e macchine.
Un effetto che, per quanto utile a garantire la “precisione” del rapporto tra “progetto” e “prodotto”, tende a sostituire alla comunicazione dialettica, dove anche la “confusione” gioca la sua parte, una comunicazione in cui per lo più si esprime il desiderio di lasciare le cose come stanno. O, quanto meno, di programmare in maniera sostanzialmente controllabile anche il cambiamento.
(gv)