Etikettarkiv: NTSB

NTSB släpper rapport om Teslakrasch

National Transportation Safety Board (NTSB) har släppt en rapport om kraschen med en Tesla Model S som var på Autopilot och en brandbil som väckte stor uppmärksamhet när den hände förra året [1].

NTSB kunde bekräfta att Autopilot användes vid kraschen och att föraren inte hade sina händer på ratten. Detta är dock en felaktig beskrivning av NTSB baserat på data från Tesla. Tesla har ingen möjlighet att upptäcka om föraren har händerna är på ratten. Tesla har endast möjlighet att upptäcka är om föraren vrider hjulen. Därför kan de aldrig hävda att ”föraren inte hade sina händer på ratten” som NTSB gör i denna rapport.

Tesla gjorde sin egen utredning och påstår sig ha ett vittne som såg föraren använt sin telefon ögonblicken före kraschen.

I en intervju med NTSB förnekar föraren att han använt sin telefon vid kraschen, men medger att han har druckit kaffe och ätit när han körde på Autopilot fram till kraschen.

NTSB kom inte fram till någon specifik slutsats om orsaken till olyckan.

Källa:

[1]Lambert,F., Tesla driver was eating and drinking during publicized Autopilot crash, NTSB reports. 2019-09-03 Länk

En ny Tesla-olycka

Nu har det inträffat ännu en dödsolycka med en Tesla-bil som körde med Autopilot.

Utredare vid NTSB (National Transport Safety Board) har funnit att båda männen som omkom i Tesla-krascherna använde förarassistentsystemet Autopilot i samband med kollisionerna [1], [2].

Autopilot är ett Level 2 semi-autonomt system, som enligt Society of Automotive Engineers beskrivs som ett system som kombinerar adaptiv farthållare, körfälthållare, självparkering och nu senast möjligheten att automatiskt byta körfält.

Efter den första kraschen under 2016 fick Tesla en chans att adressera så kallade  ”edge cases” (ovanliga scenarion) för att kunna redesigna Autopilot. Tesla sade då att kameran misslyckats med att känna igen den vita lastbilen mot en ljus himmel; US National Highway Traffic Safety Administration (NHTSA) fann i huvudsak att föraren inte var uppmärksam på vägen och gjorde bedömningen att Tesla var oskyldiga.

Det som avslöjas nu är att trots att båda krascherna hade helt olika versioner av förarassisten teknologin (trots att båda kallas Autopilot) ledde de båda versionerna till dödligt utfall. Autopiloten i den första kraschen baserades på teknologi som utvecklats av den israeliska start-upen Mobileye (som sedan förvärvades av Intel). Olyckan var delvis anledningen till att de två företagen avslutade sitt samarbete 2016.

Den andra kraschen nu var med en Model 3 som var utrustad med en andra generationens Autopilot som Tesla utvecklat in-house. NTSB har sagt att föraren körde med Autopilot ca 10 sekunder innan den kraschade in i ett släpfordon. Föraren hade inte händerna på ratten i nästan åtta sekunder före kraschen och nationella utredare undersöker fortfarande fallet.

Säkerhetsexperter har noterat att system med adaptiva farthållare (som Autopilot) förlitar sig mest på radar för att undvika kollisioner. Radar är bra för att upptäcka rörliga objekt men inte stationära. Systemet har också svårt att upptäcka föremål såsom ett fordon som korsar vägen och inte rör sig i bilens färdriktning.

Egen kommentar

Tesla har ännu inte kommenterat kring hur de planerar att åtgärda detta problem. Detta kommer inte som en extra pålaga eftersom det inte bara är en teknisk aspekt som behöver åtgärdas utan också moraliska aspekter som alla som utvecklar denna teknologi behöver adressera [3]. Det finns nämligen inga tydliga parametrar för när ett självförande fordon anses vara tillräckligt säkert för att sättas på vägen. Det man inte heller vet är vilka metoder som ska användas för att bevisa att en självkörande bil är säker nog. Ska man sedan sikta på att ha fordon som kör 10% bättre eller 100% bättre än mänskliga förare?

En studie gjord 2017 av RAND Corporation fann att ju tidigare automatiserade fordon används, desto fler liv kommer man i slutändan att rädda, även om bilarna är bara lite säkrare än bilar som körs av människor. Forskare fann att på lång sikt kan introduktion av bilar som bara är 10% säkrare än en genomsnittliga förare rädda fler liv än att vänta tills fordonen är 75% eller 90% bättre.

Viktigt att notera är att Tesla, oberoende av den senaste händelsen, kommer att strypa Autopilot och Summonfunktionerna i Europa. Detta till följd av det reviderade regelkravet UN/ECE R79. I sin senaste produktuppdatering skriver företaget: ”På grund av nya lokalregleringar har man justerat gränsen för hur mycket ratten får vridas då ”Autosteer” är aktiverat. Det här kan reducera ”Autosteers” förmåga att genomföra skarpa svängar. Därutöver så måste körriktningsvisaren hållas i första spärren (delvis ned eller upp) och filbytet måste inledas inom fem sekunder efter att blinkers satts igång.”

Källor

[1] Hawkins, A.J., Tesla didn’t fix an Autopilot problem for three years, and now another person is dead. The Verge 2019-05-17 Länk

[2] Tesla’s Autopilot system was engaged during fatal Florida crash in March – NTSB. Reuters 2019-05-16 Länk

[3] Stewart, E., Self-driving cars have to be safer than regular cars. The question is how much. Vox 2019-05-17 Länk

Lite mer klarhet i Uber-olyckan

Den amerikanska haverikommissionen NTSB (National Transportation Safety Board) har nu släppt en preliminär rapport kring den dödsolycka i Arizona som involverade en Uber-bil [1]. En kvinna som ledde en cykel medan hon korsade gatan dog till följd av sina skador.

Precis som det ryktats om innan så bekräftar rapporten att automationen var aktiverad vid tidpunkten för olyckan och att bilens radar och lidar observerat kvinnan 6 sekunder innan krocken då bilens hastighet var 43 miles/h (hastighetsbegränsningen var 45 miles/h). Dessvärre uppfattade systemet inte att det var en människa. Det ska först ha klassificerat kvinnan som ett okänt objekt, sedan som en bil, strax därefter som en cykel med varierande rörelseriktning och kort därpå inträffade krocken. Hastigheten vid krocken var 39 miles/h.

Vidare konstateras det i rapporten att bilens självkörande system bedömde 1,3 sekunder innan krocken att nödbromsning var nödvändig, men systemet för nödbromsning var inte aktiverat vid tillfället. Systemet är inte heller designat för att varna säkerhetsföraren.

Bilen ifråga (en Volvo XC90) var utrustad med en rad förarstödssytem från Volvo Cars men dessa var inte påslagna när Ubers självkörande system var aktiverat.

Vid tidpunkten för olyckan befann sig en säkerhetsförare bakom ratten i Ubers bil. I rapporten framgår det att föraren berättat att hon strax innan krocken övervakade gränssnittet för det självkörande systemet. Föraren tog tag i ratten mindre än 1 sekund före krocken och började bromsa mindre än 1 sekund efter krocken.

Efter krocken togs inga toxikologiska prover på säkerhetsföraren men enligt polisen ska föraren inte visat några tecken på nedsatt förmåga. Toxikologiska prover som tagits på den avlidna fotgängaren var positiva för metamfetamin och marijuana.

Här kan ni läsa den preliminära rapporten i dess helhet. Utredningen fortsätter.

Källor

[1] NTSB News. Preliminary Report Released for Crash Involving Pedestrian, Uber Technologies, Inc., Test Vehicle. 2018-05-24 Länk

NTSB exkluderar Tesla som aktiv part i utredningen

I början av april rapporterade vi om en ny dödsolycka med en Tesla-bil där företagets ökända Autolpilot var påslagen [1]. Kort efter att olyckan inträffade inledde den amerikanska haverikommissionen NTSB en utredning med Tesla som en aktiv deltagare i utredningen.

Förra veckan gick Tesla ut med ett uttalande om olyckan. Enligt haverikommissionen hade inte detta förankrats med dem och var baserat på ofullständig information vilket i sig kan leda till missförstånd om hur olyckan gått till. Som en konsekvens av detta utesluter de Tesla från utredningen. De förväntar sig dock att Tesla stödjer utredningen och förser den med information om det skulle behövas.

Enligt Tesla var detta ett medvetet val – Tesla vägrar acceptera en icke transparent utredning och att ha tystnadsplikt om olyckan i ett helt år.

Egen kommentar

Tesla har genom sitt agerande stimulerat många nya diskussioner och nya sätt att tänka på. Kan det vara på tiden att haveriutredningar görs snabbare och att de blir mer transparenta mot allmänheten?

Källor                                  

[1] Dickey R.M., TechCrunch. Tesla is no longer working with NTSB in fatal Model X crash investigation. 2018-04-12 Länk

Ny dödsolycka med en Tesla-bil

Som säkert många redan hört så inträffade en ny dödsolycka för ett par veckor sedan, denna gång med en Teslabil som i autonom mod körde in i en avbärare och fattade eld.

Enligt Tesla [2] så hade föraren fått ett flertal varningar och uppmaningar att ta över kontrollen innan olyckan, utan att reagera.

Detta har fått amerikanska haverikommissionen NTSB att uttrycka sig vara ”olyckliga” över att Tesla uttalar sig publikt innan utredningen är klar [3].

Källor

[1] David Shephardson: Tesla says crashed vehicle had been on autopilot prior to accident, Reuters 2018-03-31 Länk

[2] An update on last week’s accident, Tesla 2018-03-30 Länk

[3] Mike Spector, Tim Higgins: NTSB ‘Unhappy’ With Tesla Over Crash Disclosures, The Wall Street Journal 2018-04-01 Länk

Halvåret som gått

  • Det senaste halvåret har karakteriserats av Nvidias frammarsch inom fordonsbranschen. Ett tiotal nya samarbeten med leverantörer och fordonstillverkare är något att skryta om! Utöver Nvidias samarbete har vi också fått skåda några andra spännande samarbeten, som exempelvis mellan Waymo och Avis, robotikföretaget ZMP och taxiföretaget Hinomaru Kotsu, kinesiska Baidu och tyska Bosch och Continental, samt mellan Waymo och Lyft.
  • Dödsolyckan med en automatiserad Tesla Model S som skedde förra året i maj har utretts av den amerikanska trafikmyndigheten NTSB och slutsatsen blev att olyckan kan ha berott på den mänskliga faktorn – innan olyckan skedde, släppte föraren ratten vid upprepade tillfällen trots att Autopilot-funktionen uppmanade honom att ha dem där. Tesla har också blivit stämda av tre kunder i Kalifornien som anser att Autopilot inte håller vad den lovar.
  • Volvo Cars har presenterat första familjen som ska testa automatiserad körning inom ramen för Drive Me-projektet. Waymo följde lite i Volvo Cars spår, och offentliggjorde sina planer på att låta vanliga kunder nyttja dess mobilitetstjänst med automatiserade bilar i Phoenix.
  • Lastbilssidan har mest uppmärksammats på grund av striden mellan Waymo/Google och Uber/Otto. Men utöver det har vi fått veta att Waymo utökar verksamheten och inleder testning av automatiserade lastbilar med fokus på att utveckla lösningar som möjliggör automatiserad körning på motorväg. Volvo Group har visat en något annorlunda tillämpning – en självkörande sopbil. Sedan har Einride utlovat en ny typ av lastbil som är helt självkörande – vi väntar med spänning på att se den.
  • Alltfler länder börjat tillåta testning av automatiserade fordon utan krav på att en förare ska sitta bakom ratten, så länge det finns en operatör som kan fjärrkontrolera fordonet. Som ett resultat av detta har fler tester med exempelvis självkörande bussar blivit aktuella.
  • Ikonen för självkörande fordon, Waymos Firefly, har gått i pension, och den kan vi framöver se endast på museer. Den kommer dock utan tvekan fortsätta pryda många presentationer.
  • Apple har bekräftat att de utvecklar autonoma system och kallat det hela ”the mother of all AI”, de har fått tillstånd för testning i Kalifornien och deras bilar har skådats ute i trafiken. Att AI är en viktig, och utmanande, komponent för automatiserad körning framgår också av flera nya samarbeten som fokuserar på AI.
  • Och den eviga diskussionen om automationsnivåer fortsätter…Är det nivå 3 eller 2,5? När är det nivå 5? Kopplat till den här problematiken, hörde jag häromdagen en undra: Automationen är till för att hjälpa människor. Varför då prata om nivåer och inte om vilka problem som tekniken hjälper människor med?