Ancora sulla Intelligenza Artificiale, per cominciare a riflettere non tanto sulla sua funzionalità operativa ed economica, presente e futura, che nessuno pone in dubbio, ma sull’impatto che potrà avere negli attuali regimi della convivenza, vale a dire sulle sue conseguenze di carattere morale ed etico.
di Gian Piero Jacobelli 30-11-18
L’impressione generale è che si tratti della maggiore rivoluzione tecnologica e logistica della modernità.
Nelle altre rivoluzioni industriali cambiavano i fattori dei sistemi industriali, dalla energia alla forza lavoro, e cambiavano le modalità produttive, con la funzionale ripetitività della catena di montaggio, e cambiavano sia i tempi e i modi del fare, sia le possibilità di controllo automatico.
Oggi, con la Intelligenza Artificiale stanno cambiando i rapporti stessi tra le persone, produttrici o fruitrici di beni e servizi, nonché tra le persone e il mondo circostante, dalla casa all’ambiente, dal lavoro al tempo libero. E, come alcuni pensatori “oltranzisti” ipotizzano, persino dal corpo alla mente.
La radicalità del cambiamento epocale, più nuovo del nuovo, che si riflette nelle aspettative feticistiche e, forse, apotropaiche rivolte alla Intelligenza Artificiale, sembra prescindere dalle incertezze relative a cosa davvero si parli quando si parla di Intelligenza Artificiale.
Incertezze che crescono con il crescere delle aggregazioni e delle interazioni strutturali e funzionali intorno alla Intelligenza Artificiale. Ancora, infatti, non sembra abbastanza diffusa la consapevolezza che la Intelligenza Artificiale non costituisce qualcosa di concreto e di autonomo, bensì partecipa a un complesso sistema di confluenze tra varie tecnologie digitali.
In altre parole, non si deve continuare a pensare alla Intelligenza Artificiale come a un fantasmagorico strumento buono per tutti gli usi: una sorta di coltello di Delfo, che, come scriveva Aristotele, spesso per risparmiare – la considerazione economica non appare priva di riscontri anche in questi decenni in cui impera la logica del mercato – pretenderebbe di svolgere qualsiasi compito possibile e magari anche qualcuno impossibile.
Impossibile, perché, aggiungeva Aristotele, il coltello di Delfo, cioè metaforicamente la Intelligenza Artificiale, ha qualcosa di innaturale. Infatti, commentava l’Aquinate, «la natura non opera in modo che un essere abbia una pluralità di funzioni, ma assegna a ciascuno un solo compito».
Per intenderci, anche per la Intelligenza Artificiale si dovrebbe giungere a una definizione, ma sarebbe meglio dire a una diffusa cognizione, che la qualifichi concettualmente e funzionalmente, per non continuare a confonderla con la robotica o con l’Internet delle Cose, con cui ovviamente si trova sempre più spesso a interagire, ma da cui la dividono alcune caratteristiche fondamentali.
Per esempio, il fatto che alla Intelligenza Artificiale si chiede, nella prospettiva aristotelica, non soltanto di svolgere un compito specifico, di comportarsi come uno strumento particolarmente preciso, efficiente e tempestivo. Si chiede piuttosto di rendersi consapevole di quello che sta facendo, in modo da migliorare progressivamente le proprie prestazioni.
Riservandoci di affrontare in maniera più approfondita una questione senza dubbio filosoficamente rilevante, derivano proprio da questa, ancora largamente ipotetica, capacità di apprendimento e di autonomo sviluppo le preoccupazioni non più soltanto logistiche, ma soprattutto antropologiche che si addensano sulla Intelligenza Artificiale, in ordine a una presunta e a nostro avviso molto discutibile dimensione etica della stessa Intelligenza Artificiale.
Secondo alcuni studiosi, la Intelligenza Artificiale si troverà sempre più spesso davanti a scelte critiche e, per avere la sicurezza che non commetta errori, chi la programma dovrà prendere in considerazione tutte le possibili implicazioni di tale scelta, in modo da prevedere la correttezza anche etica dei comportamenti conseguenti.
Il più immediato degli esempi è quello delle automobili che si guidano da sole: cosa faranno quando, come spesso si ripete, dovranno decidere se investire una scolaresca o evitarla schiantandosi su un muro con gravi conseguenze per i passeggeri?
Come ha dichiarato Richard Hunter, del Gartner Group, «si entra in una fase di rischio di tipo nuovo, etico e di conseguenza legale. Ogni macchina con capacità decisionale agisce in un riferimento esplicito o implicito a un “sistema di valori” (ossia gli algoritmi che le fanno agire) che universali non sono, anzi talora sono in conflitto tra loro».
Ma la questione non riguarda solo l’ambito produttivo o logistico. Secondo David Orban, autore di numerose pubblicazioni sul tema dell’Intelligenza Artificiale, «i sofisticati sistemi di high frequency trading operano in Borsa in base alle conoscenze acquisite e con tempi di reazione dell’ordine di decimillesimi di secondo, muovendosi con istinti predatori paragonabili a quelli degli squali, in grado di mettere in crisi la stabilità finanziaria di interi paesi».
Per contro altri studiosi tendono a relativizzare il ruolo della Intelligenza Artificiale, sia nella storia tecnologica ed economica, sia nell’ambito di sistemi concorrenziali che, proprio in quanto concorrenziali, offrono a chi li deve utilizzareuna possibilità di relativizzazione, contraria a quella idea di “tecnologia generale” che vorrebbe porre la Intelligenza Artificiale al centro di ogni processo innovativo.
Recentemente, nel corso di uno degli eventi dell’EmTech di MIT Technology Review USA, Robert Solow, economista premiato nel 1987 con il Nobel e professore del MIT, ha sostenuto che è difficile dire se l’Intelligenza Artificiale determinerà una trasformazione tecnologicamente diversa da quelle del passato. In ogni caso, ha concluso, «non sappiamo ancora molto su come sarà un’economia basata sulla Intelligenza Artificiale, compresa la quantità di aziende che dovranno investire in cose come edifici e attrezzature, e quale tipo di lavoro sarà richiesto».
In conclusione, pensarci per tempo costituisce una buona strategia dell’attenzione, che però non deve precludere la necessaria lungimiranza e pluralità di valutazioni. Fermo restando che, a nostro avviso, non c’è motivo di preoccuparci della Intelligenza Artificiale più di quanto non si siano preoccupati i nostri predecessori delle tante precedenti e altrettanto traumatiche innovazioni tecnologiche.
Anzi, se è vero che, per quanto “artificiale”, si tratta comunque di una “intelligenza” con cui, dopo averla inventata, potremo proficuamente dialogare – quanto meno nei termini descritti dal filosofo della mente John Searle con la sua teoria della “intelligenza artificiale forte”, basata sul notissimo test di Alan Turing – ben vengano tanto i rischi, quanto le opportunità conseguenti. Nella convinzione che l’essere umano non possa ridursi al tradizionale, e spesso ideologico, modo di essere dell’umano.