La sicurezza dei dati è il principale ostacolo all’implementazione di sistemi di apprendimento automatico nel settore sanitario.
di Karen Hao
Quando Google ha annunciato che avrebbe assorbito la divisione sanitaria di DeepMind, la notizia h immediatamente scatenato un nuovo dibattito sulla privacy dei dati.
Sebbene DeepMind abbia confermato che la manovra non avrebbe effettivamente comportato la cessione dei dati personali dei pazienti a Google, la semplice idea di fornire al gigante tech informazioni intime e cartelle cliniche identificative ha turbato molte persone.
Il problema dell’accesso a una simile raccolta di dati di alta qualità è ora il principale ostacolo all’applicazione di sistemi di apprendimento automatico al settore sanitario.
Per risolvere questo problema, i ricercatori nel campo dell’IA stanno sviluppando tecniche avanzate per addestrare modelli di apprendimento automatico e garantire la confidenzialità dei dati. L’ultimo metodo, sviluppato dal MIT e denominato split neural network, permette a una persona di avviare l’addestramento di un modello di apprendimento approfondito e lasciare che il processo venga ultimato da una seconda persona.
L’idea è quella di permettere a ospedali ed altre istituzioni mediche di utilizzare i dati dei pazienti per addestrare parzialmente sul posto i modelli, per poi spedirli presso una struttura centrale dove gli stadi finali dell’addestramento verranno portati a termine dai ricercatori unendo i vari dati. La struttura centrale, sia essa il cloud di Google o il laboratorio di qualche altra società, non avrebbe mai modo di visualizzare i dati dei pazienti; i ricercatori potrebbero solo verificare i risultati di modelli parzialmente elaborati. Gli ospedali, intanto, potrebbero usufruire di un modello finale addestrato con la combinazione dei dati raccolti da ciascuna istituzione partecipante.
Ramesh Raskar, associate professor del Media Lab al MIT e coautore del paper, paragona questo processo alla crittografia. “È solo grazie alla crittografia se mi sento a mio agio quando trasmetto i dati della mia carta di identità a un’altra entità”, commenta. Offuscando i dati medici dai primi stadi di una rete neurale è possibile proteggere i dati alla stessa maniera.
Nel testare questo approccio assieme ad altri sviluppati per proteggere i dati dei pazienti, il team di ricerca ha scoperto che le reti neurali split richiedono risorse informatiche notevolmente inferiori nell’addestramento e produzione di modelli dotati di una elevata precisione.
(MO)