La morte di un uomo a bordo di una Tesla il cui pilota automatico era stato attivato ricorda tristemente che le automobili a guida autonoma possono ancora sbagliare.
di Tom Simonite
Ogni anno, negli Stati Uniti soltanto, muoiono 30.000 persone a causa di incidenti stradali. Questo numero viene spesso menzionato da coloro che sviluppano vetture a guida autonoma presso società quali Google e Tesla per rafforzare l’idea che qualunque tecnologia possa notevolmente ridurre il tasso di morti in strada meriti serie attenzioni.
Anche se le automobili automatizzate possono essere molto più sicure rispetto a quelle convenzionali, resta la possibilità che siano convolte in un incidente stradale. Nessuno software è perfetto e, con il maturare della tecnologia dietro la guida autonoma, regolatori e società dovranno decidere in che misura queste vetture dovranno essere sicure. Si è già discusso dei possibili scenari in cui una vettura autonoma potrebbe dover essere programmata per scegliere attivamente quale persona ferire.
Questi problemi pungenti sono appena diventati concreti dacché la U.S. National Highway Transportation Safety Administration ha annunciato l’avvio di una indagine nei confronti di Tesla a seguito di un incidente fatale che sarebbe avvenuto mentre la funzione Autopilot era attiva. Su alcuni modelli della società, l’autopilota è in grado di cambiare corsie o regolare la velocità della vettura nelle percorrenze autostradali.
Nel mese di maggio, in Florida, una Model S con pilota automatico attivo ha tamponato un rimorchio che stava attraversando la strada. In quell’occasione, né l’Autopilot, né il conducente a bordo, avevano frenato. In un post comparso giovedì sul blog di Tesla, la società ha dichiarato che il suo sistema di pilota automatico non aveva rilevato la fiancata bianca del rimorchio mentre era investita dalla luce del sole.
L’Autopilot di Tesla può sterzare, rilevare ostacoli e segnali stradali, e frenare per conto proprio. Ciononostante, resta meno abile di un essere umano e manca della sofisticatezza e dei sensori più precisi che si possono trovare a bordo di vetture autonome più avanzate, come quelle sviluppate da Google.
Tesla è stata criticata per aver promosso la convenienza del suo Autopilot – il cui nome, in sé, lascia credere che non occorra alcun intervento umano – seppur precisando che i conducenti devono essere sempre pronti a riprendere il controllo della propria vettura. Il capo del progetto Google per le vetture a guida autonoma, Chris Urmson, ha detto che gli esperimenti della sua società hanno rivelato che gli esseri umani non possono essere considerati affidabili, perché tendono a fidarsi troppo della vettura. Allo stesso tempo, il CEO di Tesla, Elon Musk, ha detto che i dati raccolti dalla sua società indicherebbero che il sistema Autopilot è due volte più sicuro di un conducente umano.
Non è ancora chiaro cosa sia accaduto nell’incidente fatale di Maggio. La dichiarazione di Tesla mira a enfatizzare il fatto che il conducente avrebbe dovuto essere pronto a intervenire. Se però la NHTSA dovesse dare la colpa all’Autopilot di Tesla, la società potrebbe essere costretta a lanciare un richiamo o limitare il sistema. Una conclusione simile nuocerebbe sia a Tesla che all’entusiasmo generale per questa tecnologia.
A prescindere dall’esito della investigazione da parte della NHTSA, l’incidente rappresenta un’occasione per considerare gli standard sulla base dei quali gestire i software di guida autonoma e le società che li sviluppano. Se la tecnologia si diffonderà a sufficienza, dovremo abituarci alla possibilità che questa provochi degli incidenti.
I conducenti umani costituiscono un punto di partenza abbastanza basso: intorno al 90 percento degli incidenti automobilistici è provocato da banali errori umani quali distrazione o guida in stato di ebrezza. È facile, quindi, intravvedere i miglioramenti che le macchine potrebbero introdurre in strada. Sarà però difficile stabilire quanto queste macchine dovranno essere abili.
(MO)