Sedersi sul sedile del passeggero su un’automobile driverless fa ancora paura, specie se a pilotarla è un software di Uber. La tecnologia di automazione della guida, nata con la dichiarata missione primaria di migliorare la sicurezza su strada è sicuramente un terreno di sperimentazione allettante per colossi dell’Ict (Google, Apple, Intel, per citare i primi) e dell’automotive (Tesla, Volvo, Wolksvagen, Ford, Fca e molti altri), ma è anche un terreno accidentato. Letteralmente. L’incidente che lo scorso marzo è costato la vita a un pedone a Tempe, in Arizona, sarebbe stato probabilmente” causato da un problema del software che decide quale debba essere la reazione dell’auto in caso di oggetto rilevato sul percorso.

Il condizionale è d’obbligo poiché si tratta di indiscrezioni riportate dal sito The Information, di due fonti che hanno chiesto l’anonimato. Il sensore dell’automobile prototipo avrebbe effettivamente rilevato la presenza di un pedone, ma il modo in cui il software era stato impostato avrebbe determinato il compiersi di una scelta sbagliata, fatale. Il software avrebbe considerato la sventurata donna come un falso positivo, catalogandola come oggetto inanimato non problematico per la vettura.

A detta delle fonti, gli informatici di Uber avrebbero esagerato nell’impostazione dei parametri che identificano i falsi positivi, nel tentativo di “sviluppare un’auto self-driving in cui sia comodo viaggiare”, scrive The Information. Un’auto, cioè, che non freni o cambi direzione inutilmente davanti a sacchetti di plastica o altri oggetti incontrati sul tragitto. Contattata dai giornalisti, l’azienda di San Francisco si è detta obbligata al no comment in virtù delle indagini del National Transportation Safety Board attualmente ancora in corso.

Finora le automobili a guida autonoma hanno dimostrato di essere una tecnologia tutt’altro che fatta e finita. Colpa degli algoritmi, che pure saranno intelligenti ma sprovvisti di quelle capacità di arbitrio ancora squisitamente umane, quelle che per esempio potrebbero spingere deviare un veicolo fuori carreggiata piuttosto che falciare un pedone imprudente? Quelle che ragionano non solo su precedenze e regole, ma anche sul valore della vita umana? Secondo Google, Uber e gli altri, no: finora le driverless car sarebbero state coinvolte in incidenti (quasi sempre di piccola entità) in cui il guidatore a bordo di un’altra vettura ha commesso un errore. Inoltre le statistiche della mortalità su strada dovrebbero bastare a cancellare ogni discussione, evidenziando la necessità di un cambiamento.

 

 

Quello di Tempe è stato finora il caso più eclatante, anche perché ha indotto Uber a sospendere temporaneamente ogni sperimentazione, ma un altro problema, fortunatamente senza conseguenze, si era verificato l’anno scorso sempre con un Suv di Volvo usato dal sevizio di ride hailing. Anche il sistema Autopilot delle vetture semiautomatiche di Tesla ha causato due morti a distanza di un anno circa l’una dall’altra: per ammissione di Elon Musk, bisognerà perfezionarlo ma questi due casi non invalidano il sogno driverless. L’analoga convinzione che i veicoli autonomi “una volta giunti a maturità saranno più sicuri” è stata espressa lo scorso aprile da Dara Khosrowshahi, Ceo di Uber, la quale peraltro ha recentemente commissionato a Volvo un ordine da oltre ventimila Suv per il prossimo biennio. Sia come sia, dubbi e polemiche non si spegneranno sicuramente con qualche aggiustamento ai software.