Sempre a proposito della Intelligenza Artificiale, il suggerimento di un grande linguista e semiologo come Jurij M. Lotman è quello di essere un poco meno intelligente e un poco più adattabile, perché il pensiero non può restare mai lo stesso.
di Gian Piero Jacobelli
L’estate, si sa, porta consiglio, perché, come la proverbiale notte, si presta alla esplorazione delle marginalità, di tutti quegli ambiti di riflessione, di rilettura, di riscoperta che l’incalzare della vita quotidiana spesso ostacola e induce a mettere da parte. Nei cassetti, reali e virtuali, riaperti da questo estivo ‘consiglio’ capita di rendersi conto come qualche passata reminiscenza possa trovare riscontri forse inattesi negli interrogativi posti da un presente sempre più concitato e confuso.
A noi, grazie anche al flusso incessante di notizie nella nostra Home Page, è successo nelle scorse settimane di cogliere qualche significativa confluenza tra la cronaca ormai frenetica dell’intelligenza artificiale, a cui abbiamo già dedicato non poche considerazioni – si vedano, per esempio, le note di Alessandro Ovi sugli scenari dell’Intelligenza Artificiale in Italia – e qualche lontano riscontro dell’interesse che la linguistica e la semiotica, disciplina apparentemente quanto mai astratte, hanno dedicato ai problemi dell’apprendimento automatico, su cui proprio in questi giorni abbiamo pubblicato alcuni articoli molto problematici.
Ci riferiamo in particolare ai riflessioni di Hannah Kerner sulle macchine intelligenti e il mondo reale, che sembrano stentare a incontrarsi in quanto, per funzionare meglio, i dispositivi algoritmici devono ridurre quanto possibile la complessità dei riferimenti, allo scopo di consolidare le proprie basi referenziali, con risultati tanto più certi, quanto più irrelati, o peggio.
Il peggio, come si legge nell’articolo pubblicato il 23 agosto, consiste nella forte carica “pregiudiziale” che, forse inevitabilmente, si insinua nella selezione dei dati su cui “addestrare” gli algoritmi operativi, che hanno difficoltà a tenere il passo di un mondo in costante cambiamento,
D’altra parte, se gli studi sulle applicazioni al mondo reale dell’apprendimento automatico prescindono dai principali filoni di ricerca sociologica, diventa difficile per i ricercatori coglierne le distorsioni applicative «rendendo improbabile che si prenda coscienza dei problemi e si cerchi di risolverli».
Non basta: in un articolo di Karen Hao, pubblicato il giorno prima, si deprecava il fallimento del sistema Ofqual, con cui, in piena emergenza Covid, il Regno Unito ha cercato una alternativa agli esami di maturità mettendo un algoritmo di valutazione automatica.Ma questo algoritmo ha provocato reazioni da parte sia degli studenti sia dei docenti, perché ha prevalso la necessità di standardizzazione, basata su valori di medio periodo che non tenevano conto dei meriti acquisiti proprio nella progressione formativa: «Gli algoritmi non possono riparare gli sistemi che funzionano male, in quanto ne ereditano i difetti».
Tralasciando le facilmente comprensibili ragioni pratiche (logistiche, organizzative e generalmente “di mercato”) per cui si tende a perseguire la realizzazione di strumenti “pronti all’uso”, vale a dire all’uso specifico per cui sono stati assegnati, restano da considerare le ragioni teoriche di questa sfasatura operativa, che impedisce di tenere presente la molteplicità dei fattori in gioco.
A questo proposito, per attualizzare la circostanza estiva da cui abbiamo preso le mosse, abbiamo trovato validi motivi di riflessione nella rilettura di un vecchio (1977) e quindi profetico saggio del grande studioso russo Jurij M. Lotman, ripubblicato qualche anno fa dal Centro Internazionale di Semiotica e Linguistica dell’Università di Urbino (La Cultura come Mente Collettiva ei problemi della Intelligenza Artificiale, Guaraldi, 2014).
In quel breve saggio, Lotman si soffermava appunto sulla «possibilità di mettere a confronto con l’Intelligenza Artificiale non un singolo soggetto naturale, vale a dire la mente dei singoli individui, bensì due soggetti diversi sul piano materiale, ma identici dal punto di vista funzionale».
Lotman si riferiva alla coalescenza tra la mente individuale e la mente collettiva, tra un soggetto singolo, che tende, anche senza riuscirci, a restare uguale a se stesso, e un soggetto che, al contrario, viene incessantemente attraversato dalla variabilità di linguaggi, comportamento, “idee nuove”.
A noi pare che Lotman avesse colto nel segno delle problematiche che accompagnano gli innegabili successi dell’Intelligenza Artificiale: in breve, quanto più un algoritmo si dimostra funzionale alla risoluzione di alcuni problemi, tanto più diventerà difficile che possa rispondere altrettanto efficacemente alla evoluzione di questi stessi problemi.
In questione, concludeva Lotman, resta la sostanziale differenza tra la “intelligenza” e il “pensiero”: «A questo proposito, si potrebbe dire che la capacità di uscire di senno è un segno positivo del “lavoro” della mente. Il meccanismo pensante può essere definito in questo senso come un meccanismo che, in alternativa un comportamento intelligente, possiede capacità di comportamento non intelligente (folle) e che quindi è in grado di scegliere in ogni momento tra le due opposte strategie».
Forse, come sosteneva Lotman, prendere un modello, piuttosto che quelli mentali, i comportamenti culturali, in cui maturano molte più alternative e molte più opportunità, anche l’apprendimento di questi comportamenti da parte dell’Intelligenza Artificiale potrebbe rivelarsi più incisivo: un poco meno intelligente, se non proprio “folle”, al presente, per risultare un poco più intelligente in futuro.
( gv )