Etikettarkiv: NTSB

NTSBs utredning av dödsolyckan i Kalifornien

Den amerikanska haverikommissionen NTSB har slutfört utredningen av dödsolyckan som skedde i mars 2018 i en Tesla Model X på en motorväg i Mountain View i Kalifornien [1, 2]. 

Förarstödssystemet Autopilot hade aktiverats av föraren ungefär 19 minuter innan bilen körde in i en barriär i 114 km/h där hastighetsbegränsningen var 104 km/h. Systemet ska ha feltolkat väglinjer på motorvägen. 

Föraren uppmanades vid flera tillfällen att vidröra ratten, men han lydde inte uppmaningarna. Vidare så visar utredningen att föraren hade ett spel igång på sin telefon och under sex sekunder innan olyckan hade han inte händerna på ratten trots varningarna. 

Totalt har NTSB identifierat sju säkerhetsproblem relaterat till olyckan:

  • Förardistraktion
  • Bristande monitorering av förarens engagemang
  • Bristande riskbedömning för systemets driftsförhållanden (Operational Design Domain, ODD)
  • Begränsningar i kollisionsundvikande system
  • Otillräcklig federal övervakning av system som möjliggör delvis automatiserad körning
  • Otillräckliga krav för händelseinspelning vid användning av automatiserade körsystem
  • Bristfällig motorvägsinfrastruktur

Baserat på utredningen har NTSB förnyat sina tidigare rekommendationer samt publicerat nio nya rekommendationer som berör flera organisationer, inklusive Tesla, NHTSA och Apple. 

Enligt NTSB kunde olyckan ha undvikts ifall Autopilot designats på ett sätt så att förare inte kan inbilla sig att fordonet är helt självkörande. NTSB utfärdade säkerhetsrekommendationer angående detta 2017 och drar slutsatsen att Tesla inte följt dessa.

NTSB är också kritiska till säkerhetsorganisationen NHTSA för den otillräckliga översikten av Autopilot. Enligt NTSB borde NHTSA ha gjort mer för att skydda förare.

Apple kritiseras för att de inte utvecklat bättre system för att hindra förare från att använda mobilen i bilen.

En slutrapport från olyckan väntas inom ett par veckor. Här kan ni hitta ett tiotal olika rapporter och dokument från utredningen. 

Källor

[1] NTSB News. Tesla Crash Investigation Yields 9 NTSB Safety Recommendations. 2020-02-25

[2] NTSB. Automation and data summary factual report.

Teslas olycka och mjukvaruuppdatering

Ett flitigt delat inlägg om hur Tesla avaktiverat funktionen Enhanced Autopilot för en kund efter att denne hade köpt bilen av en återförsäljare har skapat debatt på nätet om utmaningarna som kommer i samband med att mängden mjukvara ökar i fordon och kan uppdateras online [1].  Frågan som många ställer sig är hur kan det vara möjligt att tillverkaren kan ta bort funktioner trots att dessa står med på försäljningsspecifikationen, och dessutom utan att tydligt informera ägaren om detta?

I en ny rapport från National Transportation Safety Board (NTSB) uppges också att mannen, som dog 2018 när hans Tesla Model X med aktiv Autopilot kraschade mot ett vägräcke, vid flera tillfällen hade klagat över att Autopilot styrde bilen mot vägkanten [2] [3]. Han ska till och med ha klagat hos återförsäljaren som då konstaterat att de inte lyckats återskapa problemet. Här kan ni läsa veteranens Brad Templetons syn på olyckan och utredningen.

Källa

[1] Torchinsky, J., Tesla Remotely Removes Autopilot Features From Customer’s Used Tesla Without Any Notice [Updated]. 2020-02-06 Länk

[2] Crum, R., Tesla driver complained about Autopilot before fatal 2018 crash: NTSB report. The Mercury News 2020-02-11 Länk

[3] Fisher, C., Driver in fatal Tesla crash had reported problems with Autopilot. Engaget 2020-02-11 Länk

Kritik mot NHTSA

Vid den uppföljande hearingen i amerikanska senaten efter den preliminära rapporten om Uberolyckan fick trafiksäkerhetsmyndigheten NHTSA mycket kritik för att de inte satt upp tuffare krav på såväl tillverkare som delstater [1]. Inte minst fick man kritik för att man släppt igenom Teslas Autopilot, trots att den uppenbart är osäker. Man jämförde med problemen med Boeing 737 MAX8 som ju släpptes igenom av amerikanska luftfartsmyndigheten genom självcertifiering.

NHTSA försvarade sig med att inte vill sätta standarder för tidigt för att inte hindra innovation.

För själva Uberolyckan så ansågs såväl säkerhetsföraren, Uber – för deras system men främst för deras bristande rutiner -, delstaten Arizona, den förolyckade kvinnan och NHTSA vara ansvariga [2].

Källor:

[1] Lora Kolodny: Tesla and Uber draw scrutiny at Senate hearing on self-driving cars: ‘That’s not safe!’, CNBC 2019-11-20 Länk

[2] Brad Templeton: NTSB Hearing Blames Humans, Software And Policy For Fatal Uber Robocar Crash – But Mostly Humans, Forbes 2019-11-19 Länk

Utredningen om Uber olyckan klar

Den amerikanska säkerhetsorganisationen NTSB har nu slutfört utredningen om dödsolyckan som inträffade förra året i mars och som involverade en självkörande Uber-bil och en fotgängare [1]. 

Utredningen visar bland annat att Ubers mjukvara inte var programmerad att känna igen fotgängare som försöker korsa vägen där det inte finns ett övergångsställe, som ju var fallet med den avlidna fotgängaren. 

Bilens radar upptäckte fotgängaren 5,6 sekunder innan kollisionen och 5,2 sekunder innan kollisionen detekterades fotgängaren av bilens lidar. Men mjukvaran lyckades varken förstå att det var en fotgängare, eller att fotgängaren var på väg att korsa vägen. En detaljerad tabell över händelseförloppet finns i rapporten. 

I samband med rapporten analyserades också en rad andra dokument som visar att Ubers självkörande bilar var inblandade i 37 olyckor mellan september 2016 och mars 2018. I 33 av dessa fall krockade andra fordon med de självkörande bilarna.

Kommentar

Som ni kanske minns inleddes ett flertal utredningar efter olyckan liksom en parallell rättsprocess där Uber så småningom friades från ansvar. Men orsaken till olyckan har varit omstridd. Jag har inte granskat NTSBs rapport i detalj men det verkar som att den ger mycket mer information än tidigare utredningar. 

Här kan ni läsa veteranens Brad Templeton reflektioner kring den här oluckan och utredningen. 

Källor

[1] Quach, K., The Register. Remember the Uber self-driving car that killed a woman crossing the street? The AI had no clue about jaywalkers. 2019-11-06 Länk

NTSB släpper rapport om Teslakrasch

National Transportation Safety Board (NTSB) har släppt en rapport om kraschen med en Tesla Model S som var på Autopilot och en brandbil som väckte stor uppmärksamhet när den hände förra året [1].

NTSB kunde bekräfta att Autopilot användes vid kraschen och att föraren inte hade sina händer på ratten. Detta är dock en felaktig beskrivning av NTSB baserat på data från Tesla. Tesla har ingen möjlighet att upptäcka om föraren har händerna är på ratten. Tesla har endast möjlighet att upptäcka är om föraren vrider hjulen. Därför kan de aldrig hävda att ”föraren inte hade sina händer på ratten” som NTSB gör i denna rapport.

Tesla gjorde sin egen utredning och påstår sig ha ett vittne som såg föraren använt sin telefon ögonblicken före kraschen.

I en intervju med NTSB förnekar föraren att han använt sin telefon vid kraschen, men medger att han har druckit kaffe och ätit när han körde på Autopilot fram till kraschen.

NTSB kom inte fram till någon specifik slutsats om orsaken till olyckan.

Källa:

[1]Lambert,F., Tesla driver was eating and drinking during publicized Autopilot crash, NTSB reports. 2019-09-03 Länk

En ny Tesla-olycka

Nu har det inträffat ännu en dödsolycka med en Tesla-bil som körde med Autopilot.

Utredare vid NTSB (National Transport Safety Board) har funnit att båda männen som omkom i Tesla-krascherna använde förarassistentsystemet Autopilot i samband med kollisionerna [1], [2].

Autopilot är ett Level 2 semi-autonomt system, som enligt Society of Automotive Engineers beskrivs som ett system som kombinerar adaptiv farthållare, körfälthållare, självparkering och nu senast möjligheten att automatiskt byta körfält.

Efter den första kraschen under 2016 fick Tesla en chans att adressera så kallade  ”edge cases” (ovanliga scenarion) för att kunna redesigna Autopilot. Tesla sade då att kameran misslyckats med att känna igen den vita lastbilen mot en ljus himmel; US National Highway Traffic Safety Administration (NHTSA) fann i huvudsak att föraren inte var uppmärksam på vägen och gjorde bedömningen att Tesla var oskyldiga.

Det som avslöjas nu är att trots att båda krascherna hade helt olika versioner av förarassisten teknologin (trots att båda kallas Autopilot) ledde de båda versionerna till dödligt utfall. Autopiloten i den första kraschen baserades på teknologi som utvecklats av den israeliska start-upen Mobileye (som sedan förvärvades av Intel). Olyckan var delvis anledningen till att de två företagen avslutade sitt samarbete 2016.

Den andra kraschen nu var med en Model 3 som var utrustad med en andra generationens Autopilot som Tesla utvecklat in-house. NTSB har sagt att föraren körde med Autopilot ca 10 sekunder innan den kraschade in i ett släpfordon. Föraren hade inte händerna på ratten i nästan åtta sekunder före kraschen och nationella utredare undersöker fortfarande fallet.

Säkerhetsexperter har noterat att system med adaptiva farthållare (som Autopilot) förlitar sig mest på radar för att undvika kollisioner. Radar är bra för att upptäcka rörliga objekt men inte stationära. Systemet har också svårt att upptäcka föremål såsom ett fordon som korsar vägen och inte rör sig i bilens färdriktning.

Egen kommentar

Tesla har ännu inte kommenterat kring hur de planerar att åtgärda detta problem. Detta kommer inte som en extra pålaga eftersom det inte bara är en teknisk aspekt som behöver åtgärdas utan också moraliska aspekter som alla som utvecklar denna teknologi behöver adressera [3]. Det finns nämligen inga tydliga parametrar för när ett självförande fordon anses vara tillräckligt säkert för att sättas på vägen. Det man inte heller vet är vilka metoder som ska användas för att bevisa att en självkörande bil är säker nog. Ska man sedan sikta på att ha fordon som kör 10% bättre eller 100% bättre än mänskliga förare?

En studie gjord 2017 av RAND Corporation fann att ju tidigare automatiserade fordon används, desto fler liv kommer man i slutändan att rädda, även om bilarna är bara lite säkrare än bilar som körs av människor. Forskare fann att på lång sikt kan introduktion av bilar som bara är 10% säkrare än en genomsnittliga förare rädda fler liv än att vänta tills fordonen är 75% eller 90% bättre.

Viktigt att notera är att Tesla, oberoende av den senaste händelsen, kommer att strypa Autopilot och Summonfunktionerna i Europa. Detta till följd av det reviderade regelkravet UN/ECE R79. I sin senaste produktuppdatering skriver företaget: ”På grund av nya lokalregleringar har man justerat gränsen för hur mycket ratten får vridas då ”Autosteer” är aktiverat. Det här kan reducera ”Autosteers” förmåga att genomföra skarpa svängar. Därutöver så måste körriktningsvisaren hållas i första spärren (delvis ned eller upp) och filbytet måste inledas inom fem sekunder efter att blinkers satts igång.”

Källor

[1] Hawkins, A.J., Tesla didn’t fix an Autopilot problem for three years, and now another person is dead. The Verge 2019-05-17 Länk

[2] Tesla’s Autopilot system was engaged during fatal Florida crash in March – NTSB. Reuters 2019-05-16 Länk

[3] Stewart, E., Self-driving cars have to be safer than regular cars. The question is how much. Vox 2019-05-17 Länk

Lite mer klarhet i Uber-olyckan

Den amerikanska haverikommissionen NTSB (National Transportation Safety Board) har nu släppt en preliminär rapport kring den dödsolycka i Arizona som involverade en Uber-bil [1]. En kvinna som ledde en cykel medan hon korsade gatan dog till följd av sina skador.

Precis som det ryktats om innan så bekräftar rapporten att automationen var aktiverad vid tidpunkten för olyckan och att bilens radar och lidar observerat kvinnan 6 sekunder innan krocken då bilens hastighet var 43 miles/h (hastighetsbegränsningen var 45 miles/h). Dessvärre uppfattade systemet inte att det var en människa. Det ska först ha klassificerat kvinnan som ett okänt objekt, sedan som en bil, strax därefter som en cykel med varierande rörelseriktning och kort därpå inträffade krocken. Hastigheten vid krocken var 39 miles/h.

Vidare konstateras det i rapporten att bilens självkörande system bedömde 1,3 sekunder innan krocken att nödbromsning var nödvändig, men systemet för nödbromsning var inte aktiverat vid tillfället. Systemet är inte heller designat för att varna säkerhetsföraren.

Bilen ifråga (en Volvo XC90) var utrustad med en rad förarstödssytem från Volvo Cars men dessa var inte påslagna när Ubers självkörande system var aktiverat.

Vid tidpunkten för olyckan befann sig en säkerhetsförare bakom ratten i Ubers bil. I rapporten framgår det att föraren berättat att hon strax innan krocken övervakade gränssnittet för det självkörande systemet. Föraren tog tag i ratten mindre än 1 sekund före krocken och började bromsa mindre än 1 sekund efter krocken.

Efter krocken togs inga toxikologiska prover på säkerhetsföraren men enligt polisen ska föraren inte visat några tecken på nedsatt förmåga. Toxikologiska prover som tagits på den avlidna fotgängaren var positiva för metamfetamin och marijuana.

Här kan ni läsa den preliminära rapporten i dess helhet. Utredningen fortsätter.

Källor

[1] NTSB News. Preliminary Report Released for Crash Involving Pedestrian, Uber Technologies, Inc., Test Vehicle. 2018-05-24 Länk

NTSB exkluderar Tesla som aktiv part i utredningen

I början av april rapporterade vi om en ny dödsolycka med en Tesla-bil där företagets ökända Autolpilot var påslagen [1]. Kort efter att olyckan inträffade inledde den amerikanska haverikommissionen NTSB en utredning med Tesla som en aktiv deltagare i utredningen.

Förra veckan gick Tesla ut med ett uttalande om olyckan. Enligt haverikommissionen hade inte detta förankrats med dem och var baserat på ofullständig information vilket i sig kan leda till missförstånd om hur olyckan gått till. Som en konsekvens av detta utesluter de Tesla från utredningen. De förväntar sig dock att Tesla stödjer utredningen och förser den med information om det skulle behövas.

Enligt Tesla var detta ett medvetet val – Tesla vägrar acceptera en icke transparent utredning och att ha tystnadsplikt om olyckan i ett helt år.

Egen kommentar

Tesla har genom sitt agerande stimulerat många nya diskussioner och nya sätt att tänka på. Kan det vara på tiden att haveriutredningar görs snabbare och att de blir mer transparenta mot allmänheten?

Källor                                  

[1] Dickey R.M., TechCrunch. Tesla is no longer working with NTSB in fatal Model X crash investigation. 2018-04-12 Länk

Ny dödsolycka med en Tesla-bil

Som säkert många redan hört så inträffade en ny dödsolycka för ett par veckor sedan, denna gång med en Teslabil som i autonom mod körde in i en avbärare och fattade eld.

Enligt Tesla [2] så hade föraren fått ett flertal varningar och uppmaningar att ta över kontrollen innan olyckan, utan att reagera.

Detta har fått amerikanska haverikommissionen NTSB att uttrycka sig vara ”olyckliga” över att Tesla uttalar sig publikt innan utredningen är klar [3].

Källor

[1] David Shephardson: Tesla says crashed vehicle had been on autopilot prior to accident, Reuters 2018-03-31 Länk

[2] An update on last week’s accident, Tesla 2018-03-30 Länk

[3] Mike Spector, Tim Higgins: NTSB ‘Unhappy’ With Tesla Over Crash Disclosures, The Wall Street Journal 2018-04-01 Länk

Halvåret som gått

  • Det senaste halvåret har karakteriserats av Nvidias frammarsch inom fordonsbranschen. Ett tiotal nya samarbeten med leverantörer och fordonstillverkare är något att skryta om! Utöver Nvidias samarbete har vi också fått skåda några andra spännande samarbeten, som exempelvis mellan Waymo och Avis, robotikföretaget ZMP och taxiföretaget Hinomaru Kotsu, kinesiska Baidu och tyska Bosch och Continental, samt mellan Waymo och Lyft.
  • Dödsolyckan med en automatiserad Tesla Model S som skedde förra året i maj har utretts av den amerikanska trafikmyndigheten NTSB och slutsatsen blev att olyckan kan ha berott på den mänskliga faktorn – innan olyckan skedde, släppte föraren ratten vid upprepade tillfällen trots att Autopilot-funktionen uppmanade honom att ha dem där. Tesla har också blivit stämda av tre kunder i Kalifornien som anser att Autopilot inte håller vad den lovar.
  • Volvo Cars har presenterat första familjen som ska testa automatiserad körning inom ramen för Drive Me-projektet. Waymo följde lite i Volvo Cars spår, och offentliggjorde sina planer på att låta vanliga kunder nyttja dess mobilitetstjänst med automatiserade bilar i Phoenix.
  • Lastbilssidan har mest uppmärksammats på grund av striden mellan Waymo/Google och Uber/Otto. Men utöver det har vi fått veta att Waymo utökar verksamheten och inleder testning av automatiserade lastbilar med fokus på att utveckla lösningar som möjliggör automatiserad körning på motorväg. Volvo Group har visat en något annorlunda tillämpning – en självkörande sopbil. Sedan har Einride utlovat en ny typ av lastbil som är helt självkörande – vi väntar med spänning på att se den.
  • Alltfler länder börjat tillåta testning av automatiserade fordon utan krav på att en förare ska sitta bakom ratten, så länge det finns en operatör som kan fjärrkontrolera fordonet. Som ett resultat av detta har fler tester med exempelvis självkörande bussar blivit aktuella.
  • Ikonen för självkörande fordon, Waymos Firefly, har gått i pension, och den kan vi framöver se endast på museer. Den kommer dock utan tvekan fortsätta pryda många presentationer.
  • Apple har bekräftat att de utvecklar autonoma system och kallat det hela ”the mother of all AI”, de har fått tillstånd för testning i Kalifornien och deras bilar har skådats ute i trafiken. Att AI är en viktig, och utmanande, komponent för automatiserad körning framgår också av flera nya samarbeten som fokuserar på AI.
  • Och den eviga diskussionen om automationsnivåer fortsätter…Är det nivå 3 eller 2,5? När är det nivå 5? Kopplat till den här problematiken, hörde jag häromdagen en undra: Automationen är till för att hjälpa människor. Varför då prata om nivåer och inte om vilka problem som tekniken hjälper människor med?