Un team dell’azienda di sicurezza informatica McAfee ha lanciato un attacco contro un sistema di riconoscimento facciale simile a quelli attualmente utilizzati negli aeroporti per la verifica del passaporto, riuscendo a ingannarlo.
di Karen Hao e Patrick Howell O’Neill
Utilizzando l’apprendimento automatico, gli esperti di McAfee hanno creato un’immagine che è stata identificata in modo errato dall’algoritmo di riconoscimento facciale. Il responsabile dello studio, Steve Povolny. ha voluto dimostrare che è possibile far credere alla macchina di essere un altro e poter salire, per esempio, su un volo anche se si fa parte di una no-fly list. (Si veda link)
Per trarre in inganno il sistema, i ricercatori hanno utilizzato un algoritmo di traduzione delle immagini noto come CycleGAN, che eccelle nel trasformare le fotografie da uno stile a un altro. Per esempio, può fare in modo che una foto di un porto appaia come se fosse stata dipinta da Monet, oppure far credere che una foto scattata in inverno sembri fatta in estate.
Il team McAfee ha utilizzato 1.500 foto di ciascuno dei due ideatori del progetto e ha inserito le loro immagini in un CycleGAN per trasformarle l’una nell’altra. Allo stesso tempo, hanno usato l’algoritmo di riconoscimento facciale per controllare le immagini generate da CycleGAN per vedere chi veniva riconosciuto. Dopo aver generato centinaia di immagini, CycleGAN alla fine ha creato un’immagine falsa che sembrava la persona A ad occhio nudo, ma ha ingannato il riconoscimento del volto nel pensare che fosse la persona B.
Lo studio solleva chiare preoccupazioni sulla sicurezza dei sistemi di riconoscimento facciale, ma ci sono alcune precisazioni da fare. In primo luogo, i ricercatori non hanno avuto accesso al sistema effettivo che gli aeroporti utilizzano per identificare i passeggeri e invece ne ha hanno utilizzato uno approssimato con un algoritmo open source allo stato dell’arte.
“Penso che per un hacker questa sarà la parte più difficile da superare”, dice Povolny, “in quanto non ha accesso al sistema di destinazione”. Tuttavia, date le elevate somiglianze tra gli algoritmi di riconoscimento facciale, è presumibile che l’attacco potrebbe funzionare anche all’interno del sistema aeroportuale reale.
I sistemi di riconoscimento facciale e il controllo automatizzato dei passaporti sono sempre più utilizzati per la sicurezza degli aeroporti in tutto il mondo, ancor più sotto la spinta della pandemia da covid-19 che ha alimentato la necessità di sistemi touchless. La tecnologia è già ampiamente utilizzata da governi e aziende in settori quali le forze dell’ordine, la sicurezza e i sistemi di assunzioni sebbene molti gruppi abbiano chiesto una moratoria sul loro utilizzo e alcune città abbiano vietato la tecnologia.
Ci sono altre limitazioni dal punto di visto tecnologico che spingono a essere prudenti sul riconoscimento facciale. Un team dell’Università di Chicago ha recentemente rilasciato Fawkes, uno strumento pensato per “mascherare” i volti, alterando leggermente le foto sui social media in modo da ingannare i sistemi di intelligenza artificiale che si basano su database ricavati da miliardi di tali immagini. I ricercatori dell’azienda di intelligenza artificiale Kneron hanno anche mostrato come le maschere possano ingannare i sistemi di riconoscimento facciale.
I ricercatori McAfee affermano che il loro obiettivo è in definitiva quello di dimostrare le vulnerabilità intrinseche in questi sistemi di intelligenza artificiale e sostenere l’idea che non si possa fare a meno della presenza degli esseri umani nei sistemi di controllo.
“L’intelligenza artificiale e il riconoscimento facciale sono strumenti incredibilmente potenti per identificare le persone”, afferma Povolny. “Ma quando si sostituisce totalmente un sistema esistente senza assicurare la presenza di un qualche tipo di controllo secondario, si è più esposti ai pericoli di quanto lo si fosse in precedenza”.
Immagine di: Michael Aleo / Unsplash
(rp)