Nu har det inträffat ännu en dödsolycka med en Tesla-bil som körde med Autopilot.
Utredare vid NTSB (National Transport Safety Board) har funnit att båda männen som omkom i Tesla-krascherna använde förarassistentsystemet Autopilot i samband med kollisionerna [1], [2].
Autopilot är ett Level 2 semi-autonomt system, som enligt Society of Automotive Engineers beskrivs som ett system som kombinerar adaptiv farthållare, körfälthållare, självparkering och nu senast möjligheten att automatiskt byta körfält.
Efter den första kraschen under 2016 fick Tesla en chans att adressera så kallade ”edge cases” (ovanliga scenarion) för att kunna redesigna Autopilot. Tesla sade då att kameran misslyckats med att känna igen den vita lastbilen mot en ljus himmel; US National Highway Traffic Safety Administration (NHTSA) fann i huvudsak att föraren inte var uppmärksam på vägen och gjorde bedömningen att Tesla var oskyldiga.
Det som avslöjas nu är att trots att båda krascherna hade helt olika versioner av förarassisten teknologin (trots att båda kallas Autopilot) ledde de båda versionerna till dödligt utfall. Autopiloten i den första kraschen baserades på teknologi som utvecklats av den israeliska start-upen Mobileye (som sedan förvärvades av Intel). Olyckan var delvis anledningen till att de två företagen avslutade sitt samarbete 2016.
Den andra kraschen nu var med en Model 3 som var utrustad med en andra generationens Autopilot som Tesla utvecklat in-house. NTSB har sagt att föraren körde med Autopilot ca 10 sekunder innan den kraschade in i ett släpfordon. Föraren hade inte händerna på ratten i nästan åtta sekunder före kraschen och nationella utredare undersöker fortfarande fallet.
Säkerhetsexperter har noterat att system med adaptiva farthållare (som Autopilot) förlitar sig mest på radar för att undvika kollisioner. Radar är bra för att upptäcka rörliga objekt men inte stationära. Systemet har också svårt att upptäcka föremål såsom ett fordon som korsar vägen och inte rör sig i bilens färdriktning.
Egen kommentar
Tesla har ännu inte kommenterat kring hur de planerar att åtgärda detta problem. Detta kommer inte som en extra pålaga eftersom det inte bara är en teknisk aspekt som behöver åtgärdas utan också moraliska aspekter som alla som utvecklar denna teknologi behöver adressera [3]. Det finns nämligen inga tydliga parametrar för när ett självförande fordon anses vara tillräckligt säkert för att sättas på vägen. Det man inte heller vet är vilka metoder som ska användas för att bevisa att en självkörande bil är säker nog. Ska man sedan sikta på att ha fordon som kör 10% bättre eller 100% bättre än mänskliga förare?
En studie gjord 2017 av RAND Corporation fann att ju tidigare automatiserade fordon används, desto fler liv kommer man i slutändan att rädda, även om bilarna är bara lite säkrare än bilar som körs av människor. Forskare fann att på lång sikt kan introduktion av bilar som bara är 10% säkrare än en genomsnittliga förare rädda fler liv än att vänta tills fordonen är 75% eller 90% bättre.
Viktigt att notera är att Tesla, oberoende av den senaste händelsen, kommer att strypa Autopilot och Summonfunktionerna i Europa. Detta till följd av det reviderade regelkravet UN/ECE R79. I sin senaste produktuppdatering skriver företaget: ”På grund av nya lokalregleringar har man justerat gränsen för hur mycket ratten får vridas då ”Autosteer” är aktiverat. Det här kan reducera ”Autosteers” förmåga att genomföra skarpa svängar. Därutöver så måste körriktningsvisaren hållas i första spärren (delvis ned eller upp) och filbytet måste inledas inom fem sekunder efter att blinkers satts igång.”
Källor
[1] Hawkins, A.J., Tesla didn’t fix an Autopilot problem for three
years, and now another person is dead. The Verge 2019-05-17 Länk
[2] Tesla’s Autopilot system was engaged during fatal Florida crash in
March – NTSB. Reuters 2019-05-16 Länk
[3] Stewart, E., Self-driving cars have to be safer than regular cars. The question is how much. Vox 2019-05-17 Länk