L’Etica delle nuove tecnologie digitali: conoscere per discutere e decidere.
di Alessandro Ovi
Sempre più spesso, quando si parla di nuove tecnologie, dalla Intelligenza Artificiale alle biotecnologie, si sente crescere la preoccupazione nell’opinione pubblica circa le implicazioni etiche di macchine sempre più intelligenti o di procedure mediche così vicine alle origini e alla natura della vita.
Quanto a queste ultime, quattro sono le principali linee di sviluppo:
la medicina di precisione, cioè un approccio alla cura del paziente che consente ai medici di selezionare i trattamenti sulla base di una comprensione genetica della loro malattia;
la medicina personalizzata, cioè un modello medico che separa le persone in gruppi diversi, con pratiche, interventi e farmaci personalizzati in ragione del loro prevedibile rischio di malattia;
il Gene Editing, cioè un tipo di ingegneria genetica in cui segmenti di DNA vengono inseriti, eliminati, modificati o sostituiti nel genoma di un organismo vivente; la immunoterapia, cioè il trattamento della malattia mediante l’attivazione o la parziale soppressione del sistema immunitario.
Ma è soprattutto delle prime implicazioni, quelle etiche, che vogliamo occuparci in questo Rapporto di Federmanager, non perché le seconde siano meno importanti nel mondo della innovazione, ma perché le prime sono direttamente attinenti agli argomenti qui trattati. I principi etici sono quelli che regolano il comportamento o l’attività di una persona. Una persona che conosce la differenza tra giusto e sbagliato e sceglie il giusto, è morale. Una persona la cui moralità si riflette nella volontà di fare la cosa giusta, anche se difficile o pericolosa, è etica. La morale è un valore etico in azione.
Gli esperti di IA ritengono che valga la pena considerare le implicazioni etiche della tecnologia che sta diventando sempre più potente e dirompente. Tuttavia, prima di addentrarci nella discussione delle implicazioni sociali e al limite filosofiche, dobbiamo intenderci su quali siano esattamente le questioni più importanti a cui rispondere. Perciò abbiamo costruito un glossario con brevi spiegazioni facili da leggere dei termini più comunemente utilizzati.
Intelligenza Artificiale
Con IA si intende la intelligenza simulata in macchine programmate per “pensare” come un essere umano e imitare il modo in cui una persona agisce. L’intelligenza artificiale non è una “tecnologia”, ma un sistema di diverse tecnologie collegate per offrire vari servizi come il riconoscimento vocale o facciale e la guida autonoma.
Computer Vision
Si tratta di un campo integrale di Intelligenza Artificiale, che consente ai computer di identificare, interpretare ed elaborare set di dati di immagini e video.
Machine Learning
Algoritmi e modelli matematici che i sistemi informatici utilizzano per migliorare progressivamente le loro prestazioni su un compito specifico, da dati precedentemente raccolti.
Apprendimento profondo
L’apprendimento profondo (anche apprendimento strutturato in profondità o apprendimento gerarchico) fa parte di una più ampia famiglia di metodi di apprendimento automatico, basati su rappresentazioni di dati e algoritmi specifici.
Può essere supervisionato, inviando un insieme di esempi, il set di apprendimento, come input al sistema durante la fase di addestramento. Ogni input è etichettato con il valore di output desiderato, per cui il sistema sa come sarà il risultato quando l’input sarà arrivato.
Può anche essere semi-supervisionato o non supervisionato. Nell’apprendimento senza supervisione gli esempi di formazione forniti dal sistema non sono etichettati con la classe di appartenenza, per cui il sistema sviluppa e organizza i dati, ricercando caratteristiche comuni tra loro e cambiandole in base a conoscenze precedenti.
Reti neurali
Architetture come le reti neurali profonde, le reti neurali di credenze profonde e le reti neurali ricorrenti sono state applicate a campi quali visione artificiale, riconoscimento vocale, elaborazione del linguaggio naturale, riconoscimento audio, filtraggio social network, traduzione automatica, bioinformatica, progettazione di farmaci, analisi di immagini mediche, programmi di controllo e di gioco, in cui hanno prodotto risultati paragonabili se non superiori a quelli degli esperti umani.
In altre parole, le reti neurali sono modelli di calcolo matematico-informatici basati sul funzionamento delle reti neurali biologiche, ossia modelli costituiti da interconnessioni di informazioni che derivano da processi di calcolo basati sul modello delle scienze cognitive chiamato “connessionismo” e basato sul parallelismo distribuito delle informazioni: il cervello umano elabora le informazioni dei vari sensi in modo parallelo e distribuisce le informazioni in tutti i vari nodi della rete, non in una memoria centrale, mentre nella informatica tradizionale i calcoli avvengono in modo seriale e non parallelo e i dati vengono immagazzinati in una memoria centrale.
I primi studi delle reti neurali risalgono al 1943, ma fino alla fine degli anni Cinquanta è accaduto ben poco. Nei primi anni Settanta si assiste al lancio dei primi linguaggi di programmazione specifici per l’IA (Lisp nel 1958 e Prolog nel 1973), ma è dalla fine degli anni Ottanta che avviene una grande accelerazione con l’arrivo sul mercato allargato di nuovi potenti processori e avanzati chip in grado di supportare applicazioni specifiche come quelle delle analisi e delle simulazioni. Da qui in poi il percorso di avanzamento tecnologico non si è più arrestato e oggi nei laboratori di ricerca si sta già lavorando ai chip neuromorfici, che imitano il funzionamento del cervello umano, e a quelli per il quantum computing.
Big Data
Insiemi di dati estremamente ampi, che possono venire analizzati computazionalmente per rivelare schemi, tendenze e associazioni, in particolare in relazione al comportamento umano e alle interazioni. Il fenomeno dei Big Data, certamente non passeggero, viene spesso descritto usando cinque V: Volume, Velocità, Varietà, Veracità, Valore.
Il Volume si riferisce alle enormi quantità di dati generati ogni secondo. Si pensi a tutte le e-mail, i messaggi di Twitter, le foto, i videoclip, i dati dei sensori e via dicendo, che vengono prodotti e condivisi ogni secondo. Non si parla di Terabyte, ma di Zettabyte o di Brontobyte. Solo su Facebook vengono inviati 10 miliardi di messaggi al giorno, viene cliccato un “Mi piace” 4,5 miliardi di volte e vengono caricate 350 milioni di nuove immagini ogni giorno. Se si considerano tutti i dati generati nel mondo tra l’inizio della storia e il 2008, la stessa quantità di dati sarà presto generata ogni minuto.
La Velocità si riferisce alla rapidità con cui vengono generati nuovi dati e con cui i dati si muovono. Basti pensare ai messaggi dei social media, che diventano virali in pochi secondi, alle transazioni con carte di credito che vengono controllate in tempo reale, ai millisecondi che impiegano i sistemi di trading per analizzare le reti di social media e raccogliere segnali che scatenano le decisioni di acquisto o vendita di azioni. La tecnologia dei dati consente ora di analizzare i dati mentre vengono generati, senza mai inserirli nel database.
La Varietà si riferisce ai diversi tipi di dati che possono venire utilizzati. In passato ci si è concentrati su dati strutturati che si adattano a tabelle o database relazionali, per esempio dati finanziari. In effetti, l’80 per cento dei dati nel mondo è ancora non strutturato e pertanto non può venire facilmente inquadrato. Grazie alla tecnologia Big Data, ora è possibile utilizzare diversi tipi di dati (strutturati e non strutturati), inclusi messaggi, conversazioni sui social media, foto, dati dei sensori, risultati medici, registrazioni video o vocali, associandoli a dati più tradizionali e strutturati.
La Veracità si riferisce alla confusione o affidabilità dei dati. Con molte forme di Big Data, la qualità e l’accuratezza sono meno controllabili (basti pensare ai post di Twitter con hashtag, abbreviazioni, refusi e discorsi familiari), ma i Big Data e la tecnologia analitica ora permettono di lavorare con questo tipo di dati. La quantità spesso compensa la mancanza di qualità.
Il Valore costituisce l’ultima V da tenere in considerazione per i Big Data. L’accesso ai Big Data è importante, ma se non si può trasformarli in valore, è anche inutile. Quindi che il Valore è la V più importante dei Big Data. È importante che le aziende facciano un business case quando si accingono a raccogliere e sfruttare i Big Data. È molto facile cadere nella trappola di intraprendere iniziative di Big Data senza una chiara comprensione dei costi e dei benefici.
La grande differenza tra l’automazione tradizionale e quella legata alla Intelligenza Artificiale sta nella disponibilità di algoritmi che permettono alla IA di analizzare i dati raccolti dall’esterno durante il loro funzionamento, adottando nuove regole di comportamento senza nessuna istruzione umana. La IA può basarsi su dati ricevuti da sensori e software di riconoscimento di immagini e suoni o dalle grandi basi di dati generati dalle innumerevoli cose che ci circondano e finiscono nella grande rete Internet (Internet of Things).
Tutto ciò può apparire molto confuso e complesso, ma non lo è se si pensa alla grande potenza di calcolo su cui si può fare affidamento e che si moltiplica in modo esponenziale.
Ancor più confuso e complesso, in realtà, è immaginare come si possano concordare gli obiettivi etici che verrebbero programmati nella futura IA. In linea di principio, l’IA dovrebbe mirare a “un buon risultato per tutti”, “a beneficio dell’umanità nel suo insieme”. Ma chi può a definire quale sia questo buon risultato?
Vi sono molte avvertenze in merito alle potenziali implicazioni a lungo termine della IA, alimentate in parte dalla speculazione sulla difficoltà a controllare una IA più intelligente di quella umana. Se si volesse davvero realizzare una intelligenza illimitata, sarebbe opportuno capire come allineare i software della IA con i valori e i bisogni umani.
Alcuni pensano che non sia difficile codificare considerazioni etiche negli algoritmi di apprendimento automatico, come parte della funzione che ottimizzano, Ma la domanda cruciale è se gli esseri umani saranno in grado di formalizzare le proprie istanze etiche in modo coerente e completo.
Un’altra opzione sarebbe quella di fare sì che la IA impari l’etica osservando il comportamento umano, ma potrebbero finire per essere confusi se lo facessero.
Tuttavia, se si scegliesse di programmare algoritmicamente il comportamento etico, il problema dovrebbe aprirsi a un maggiore dibattito su quale potrebbe essere un “buon risultato”. Soprattutto per un sistema di tecnologie rivoluzionarie come la IA, senza un riscontro allargato e consensuale sarebbe improbabile riuscire a farlo davvero “buono”.