Un nuovo sistema sviluppato dalla Oxbotica di Oxford potrebbe trasformare qualunque auto in un mezzo a guida autonoma.
di Jamie Condliffe
Oxbotica, una spin-out dell’Università di Oxford, ha sviluppato un nuovo sistema software per convertire normali automobili in vetture a guida autonoma.
Il sistema, denominato Selenium, riesce a elaborare i dati raccolti da videocamere, scanner laser o sistemi radar. Ricorre quindi a una serie di algoritmi per stabilire la “propria” posizione, quello che la circonda, e determinare gli spostamenti migliori. “Prende una qualunque vettura e la fa diventare autonoma”, spiega Paul Newman, professore dell’Università di Oxford e cofondatore di Oxbotica. Potrà anche sembrare un’idea ambiziosa, ma Newman è molto serio a riguardo: il team non sta sviluppando questo software per controllare solamente automobili, ma anche muletti, robot trasportatori e veicoli autonomi per i trasporti pubblici.
La maggior parte dei sistemi in via di sviluppo da parte di altri produttori si affida alla realizzazione di un sistema che sia sufficientemente robusto da gestire la guida dal primo momento in cui vengono attivati. L’Autopilot di Tesla, ad esempio, sfrutta le videocamere di bordo e un software per l’analisi delle immagini per controllare l’auto in autostrada. L’affidabilità di questo sistema è stata recentemente messa in discussione dopo una serie di incidenti.
Il software Oxbotica acquisisce gradualmente i dati sui percorsi dal veicolo e impara come comportarsi analizzando il modo in cui si comporta il conducente umano. “Quando acquistate la vostra vettura autonoma e partite dalla concessionaria, il sistema non saprà ancora nulla”, spiega Ingmar Posner, un professore associato di Oxford nonché un altro dei fondatori di Oxbotica. “A un certo punto, però, potrà decidere di sapere dove si trova, il suo sistema di percezione sarà stato addestrato sulla base del vostro modo di guidare, e potrete avvantaggiarvi di un sistema autonomo”.
La società spiega che il software offre due funzioni primarie: localizzazione della vettura nello spazio, e percezione degli eventi che le accadono attorno. Sulla base di questi feeds, un pianificatore centralizzato è in grado di determinare i movimenti della vettura. Entrambi i sistemi di localizzazione e percezione fanno affidamento sui sensori disposti attorno alla vettura, la cui scelta dipende dall’applicazione. Secondo Newman, per mezzi come i muletti che operano nei magazzini potrebbero bastare poche videocamere economiche, mentre per un’automobile si potrebbero adottare molteplici di sensori differenti.
Il Selenium è in grado di comparare al volo le letture dei sensori con quelle raccolte nelle mappe degli spostamenti precedenti con condizioni simili. “Se esponete il sistema alla neve per la prima volta, l’esperienza verrà salvata per la prossima occasione in cui nevicherà”, dice Newman. Il software può quindi identificare caratteristiche visive – quali i dettagli negli edifici o la disposizione di cartelloni e segnali stradali – per localizzare la vettura nel mondo esteso. Nel frattempo i dati raccolti da un sistema laser, grazie alla loro elevata risoluzione, possono contribuire alla localizzazione della vettura, specialmente nelle condizioni di scarsa visibilità in cui le videocamere hanno maggiori difficoltà.
Il team addestra il sistema a riconoscere automobili ed esseri umani esponendolo a un set di immagini preregistrate. Con il passare del tempo, però, sarà il conducente a proseguire l’addestramento. “Se un conducente passa attraverso quello che il sistema aveva erroneamente imparato a riconoscere come una figura umana, il software può imparare dalla sua azione”, spiega Posner. Il sistema utilizza conoscenze preimpostate e apprendimento continuo per determinare, ad esempio, quali parti di una superficie possono essere tranquillamente superate o come cambiano i segnali stradali.
Il risultato è un veicolo in grado di acquisire una profonda comprensione dei percorsi regolari. Questo, secondo Posner, significa che il software non sta semplicemente cercando di fare un lavoro mediocre ovunque si trovi; piuttosto, fa un ottimo lavoro nei luoghi che sa di aver già visitato. Ho fatto un giro a bordo di una Renault Twizzy munita di sensori laser, videocamere ed un grosso computer con sistema Selenium. È stato come farsi accompagnare da un fiducioso autista umano, con accelerazioni, frenate e cambi di corsia decisi ma sicuri – anche se, nel percorso che ho provato, non vi erano particolari ostacoli da superare.
Il software di Oxbotica verrà presto collaudato in due scenari del mondo reale: a bordo dei mezzi pubblici autonomi del progetto GATEway di Greenwich, Londra, e nei veicoli LUTZ Pathfinder che sono in fase di collaudo a Keynes, nel Regno Unito. Newman ci ha spiegato che la società sta già lavorando assieme ad alcune case automobilistiche, anche se non ha voluto precisare quali o indicare una possibile data per il lancio della tecnologia a bordo di mezzi privati.
Nonostante le recenti indagini sull’Autopilot di Tesla abbiano gettato una certa ombra sulle tecnologie per la guida autonoma, chi lavora in questo settore continua decisamente a spingere verso il loro sviluppo. Oxbotica non è la sola ad aver presentato un nuovo software: la scorsa settimana Nissan ha lanciato il suo sistema di assistenza alla guida ProPilot. I due sistemi sono molto differenti, ma il loro arrivo suggerisce che la corsa verso la guida autonoma non accenna a rallentare.
(MO)