Gli algoritmi stanno plasmando sempre più la vita dei bambini, al punto che è sorta l’esigenza di individuare delle linee guida per limitare l’influenza dell’AI sul loro sviluppo fisico e intellettuale.
di Karen Hao
Oggi, dietro la spinta dei sistemi di raccomandazione, i bambini guardano video su TikTok e YouTube che spesso finiscono per plasmare le loro visioni del mondo. Gli algoritmi sono con frequenza crescente utilizzati per determinare la loro istruzione, per determinare se riceveranno assistenza sanitaria e per decidere se i genitori sono idonei a prendersi cura di loro.
A volte gli effetti sono devastanti: la scorsa estate, per esempio, migliaia di studenti non sono stati ammessi all’università dopo che gli algoritmi utilizzati al posto dei test standardizzati annullati dalla pandemia avevano previsto in modo impreciso il loro rendimento scolastico.
I bambini, in altre parole, sono spesso in prima linea quando si tratta di utilizzare e essere utilizzati dall’IA, e questo può creare loro danni, in quanto “si stanno sviluppando intellettualmente, emotivamente e fisicamente e di conseguenza sono molto modellabili”, afferma Steve Vosloo, esperto di politiche per la connettività digitale presso l’Unicef, il Fondo delle Nazioni Unite per l’infanzia.
Vosloo ha guidato la stesura di una nuova serie di linee guida dell’Unicef progettate per aiutare i governi e le aziende a sviluppare politiche di AI che tengano conto delle esigenze dei bambini. Pubblicate il 16 settembre, le nove nuove linee guida sono il frutto di numerose consultazioni tenute con i responsabili delle politiche, i ricercatori sullo sviluppo dei bambini, i professionisti dell’AI e i bambini di tutto il mondo. Prendono inoltre in considerazione la Convenzione delle Nazioni Unite sui diritti dell’infanzia, un trattato sui diritti umani ratificato nel 1989.
Le linee guida non sono intese come un altro insieme di principi di intelligenza artificiale, molti dei quali dicono già le stesse cose. Nel gennaio di quest’anno, una revisione dell’Harvard Berkman Klein Center di 36 dei documenti più importanti che guidano le strategie di AI nazionali e aziendali ha rilevato otto temi comuni, tra cui privacy, sicurezza, correttezza e comprensibilità.
L’Unicef intende integrare questi temi esistenti e adattarli ai bambini. Per esempio, i sistemi di intelligenza artificiale non dovrebbero essere solo comprensibili, ma dovrebbero essere spiegabili ai bambini. Dovrebbero anche considerare le loro esigenze di sviluppo. “I bambini hanno diritti aggiuntivi rispetto agli adulti”, dice Vosloo. Si stima inoltre che rappresentino almeno un terzo degli utenti online. “Non stiamo parlando di una minoranza”, egli sottolinea.
Oltre a mitigare i danni causati dall’AI, l’obiettivo delle linee guida è incoraggiare lo sviluppo di sistemi di intelligenza artificiale che potrebbero migliorare la crescita e il benessere dei bambini. Se sono progettati bene, per esempio, è stato dimostrato che gli strumenti di apprendimento basati sull’intelligenza artificiale migliorano le capacità di pensiero critico e di risoluzione dei problemi dei bambini e possono essere utili per chi ha difficoltà di apprendimento.
Gli assistenti di intelligenza artificiale emotiva, sebbene allo stato quasi iniziale, potrebbero fornire supporto per la salute mentale e hanno dimostrato di migliorare le abilità sociali dei bambini autistici. Il riconoscimento facciale, utilizzato con attente limitazioni, potrebbe aiutare a identificare i bambini scomparsi o vittime dei trafficanti. I bambini dovrebbero anche essere istruiti sull’AI e incoraggiati a partecipare al suo sviluppo. “Non si tratta solo di proteggerli”, dice Vosloo, “ma anche di responsabilizzarli e dare loro la possibilità di plasmare il loro futuro”.
I bambini sono i più svantaggiati
L’Unicef non è sola a pensare al problema. Il giorno prima che venisse pubblicata la bozza di linee guida, l’Accademia di intelligenza artificiale di Pechino (BAAI), un’organizzazione sostenuta dal Ministero cinese della Scienza e della Tecnologia e dal governo municipale di Pechino, ha rilasciato a sua volta una serie di principi di intelligenza artificiale per i bambini.
L’annuncio arriva un anno dopo che la BAAI ha rilasciato i principi dell’AI di Pechino, intesi come valori guida per lo sviluppo dell’intelligenza artificiale nazionale cinese. I nuovi principi delineati specificamente per i bambini vogliono essere “un’implementazione concreta” di quelli più generali, afferma Yi Zeng, direttore del Centro di ricerca sull’etica e lo sviluppo sostenibile della BAAI che ha guidato la loro stesura.
Queste linee guida sono in continuità con quelle dell’Unicef, toccando a loro volta problemi come la privacy, l’equità, la comprensibilità e il benessere dei bambini, sebbene alcuni dettagli siano più specifici della realtà cinese. Una linea guida per migliorare la salute fisica dei bambini, per esempio, include l’uso dell’AI per aiutare ad affrontare l’inquinamento ambientale.
Anche se le due iniziative non sono formalmente correlate, il tempismo non è casuale. Dopo la lunga discussione sui principi dell’intelligenza artificiale negli ultimi anni, entrambe le organizzazioni affermano che la creazione di linee guida più personalizzate per i bambini è stato il passo logico successivo. “Parlando di gruppi svantaggiati, ovviamente i bambini sono i più svantaggiati”, dice Zeng. “Questo è il motivo per cui abbiamo davvero bisogno di dare loro un’attenzione speciale”. I relatori delle diverse linee guida si sono incontrati durante la stesura dei rispettivi documenti. Quando l’Unicef ha tenuto un seminario di consultazione in Asia orientale, Zeng ha partecipato come relatore.
L’Unicef ora prevede di portare avanti una serie di programmi pilota con vari paesi partner per verificare quanto siano pratiche ed efficaci le linee guida in contesti diversi. BAAI ha formato un gruppo di lavoro con rappresentanti di alcune delle più grandi aziende che guidano la strategia nazionale di AI del paese, tra cui l’azienda di tecnologia per l’istruzione TAL, la società di elettronica di consumo Xiaomi, l’azienda di visione artificiale Megvii e il gigante di Internet Baidu.
La speranza è di convincerli a iniziare a prestare attenzione ai principi nei loro prodotti e indurre altre aziende e organizzazioni a fare lo stesso. Sia Vosloo che Zeng sperano che le linee guida aumenteranno la consapevolezza di questi problemi. “Comprendiamo che questo è un territorio nuovo per molti governi e aziende” afferma Vosloo, “quindi, se nel tempo vedremo più bambini inclusi nel ciclo di sviluppo delle politiche, più attenzione al modo in cui i loro dati vengono raccolti e analizzati, sarà una vittoria importante per noi”.
Immagine: Ludovic Toinel / Unsplash
(rp)