Etikettarkiv: NHTSA

Hyundai känner av baksätespassagerare

Antalet barn som dör av värmeslag i fordon ökar [1]. En väl fungerande lösning för att upptäcka nästintill orörliga personer i bilar är därför eftertraktad.

Hyundai Mobis påstår sig nu har en radarbaserad lösning som klarar att identifiera mycket små tecken på liv, även genom textilier.

Mjukvaran ska vara så bra på att tolka radarsignalerna att Hyundai redan har planer på att expandera systemet till att även kunna mäta hjärtrytmen hos passagerare.

Systemet ska nu erbjudas internationella bilföretag [2].

Egen kommentar

I början av 2019 lanserade Tesla en funktion kallad Dog Mode. Den har två syften: att hålla hundar, och andra husdjur, i en klimatkontrollerad miljö om de lämnas obevakade i ett fordon, och att låta förbipasserande veta deras status. Här handlar det dock inte om någon automatisk detektering, funktionen behöver aktiveras av ägaren.

Här kan ni se exempel på andra fordonsmodeller (i USA) som erbjuder någon typ av detektering av personer och djur inne i fordonet. Sådan teknologi lär bli minst lika viktiga i självkörande fordon.

Källor

[1] National Highway Traffic Safety Administration, US Department of Transport. Help Prevent Hot Car Deaths. 2019-11-18 Länk

[2] Hyundai Mobis, PR Newswire. Hyundai Mobis develops ’in-cabin systems’ utilizing the state-of-the-art autonomous driving sensors one after another. 2020-03-23 Länk

Förslag till ny säkerhetsstandardad för passagerare

Den amerikanska säkerhetsorganisationen NHTSA har i syfte att skynda på utvecklingen av självkörande fordon föreslagit anpassade säkerhetsstandarder för passagerarsäkerhet [1, 2]. Förslagen ligger ute för allmän granskning och ska leda till anpassningar för fordon som saknar till exempel ratt och pedaler. Förändringarna kommer inte påverka traditionella fordon.

De områden som bedöms komma att beröras är:

  • Passagerarskydd vid  interiöra islag (Occupant protection in interior impact)
  • Förarskydd vid islag mot styrsystem (Impact protection for the driver from the steering control system)
  • Deformationsförmåga av styrsystem (Steering control rearward displacement)
  • Genomsiktliga material (Glazing materials)
  • Lås och fästanordningar för dörrar (Door locks and door retention components)
  • Säten och tillhörande system (Seating systems)
  • Passagerarskydd i krock (Occupant crash protection)
  • Sidokrockskydd (Side impact protection)
  • Takdeformationsmotstånd (Roof crush resistance; Upgraded standard)
  • Fästen för bilbarnstolar (Child restraint anchorage systems)

Källor

[1] Reuters. U.S. agency proposes revising auto safety rules to speed self-driving cars. 2020-03-17 Länk

[2] The U.S. Department of Transportation’s National Highway Traffic Safety Administration. NHTSA Issues First-Ever Proposal to Modernize Occupant Protection Safety Standards for Vehicles Without Manual Controls. 2020-03-17 Länk

EasyMile hindras köra passagerare i USA

Efter en olycka, där en passagerare fallit av sätet vid ett nödstopp, hindrar nu den amerikanska trafiksäkerhetsmyndigheten NHTSA skyttelföretaget EasyMile från att köra passagerare [1]. Förbudet gäller 16 skyttlar i tio amerikanska delstater.

Skyttlarna får enligt EasyMile fortfarande rulla på allmän väg under utredningsperioden, fast då med enbart säkerhetsförare.

Passageraren rapporteras fått lindriga skador och klagat på smärta i knä och ben [2].

Egen kommentar

Skyttelpassagerare är idag inte fastspända och kan färdas stående. Detta trots att skyttlarna i vissa situationer är programmerade till att tvärnita. Idag begränsas därför dessa fordon ofta till en maxhastighet på 20 km/h. En så låg maxhastighet begränsar nyttan men verkar ändå inte räcka för att undvika skador på passagerare.

Källa

[1] U.S. agency slams brakes on self-driving EasyMile shuttles after passenger injury. 2020-02-25 Länk

[2] EasyMile Autonomous Shuttle Operations Paused in U.S. After Minor Incident in Ohio. 2020-02-27 Länk

NTSBs utredning av dödsolyckan i Kalifornien

Den amerikanska haverikommissionen NTSB har slutfört utredningen av dödsolyckan som skedde i mars 2018 i en Tesla Model X på en motorväg i Mountain View i Kalifornien [1, 2]. 

Förarstödssystemet Autopilot hade aktiverats av föraren ungefär 19 minuter innan bilen körde in i en barriär i 114 km/h där hastighetsbegränsningen var 104 km/h. Systemet ska ha feltolkat väglinjer på motorvägen. 

Föraren uppmanades vid flera tillfällen att vidröra ratten, men han lydde inte uppmaningarna. Vidare så visar utredningen att föraren hade ett spel igång på sin telefon och under sex sekunder innan olyckan hade han inte händerna på ratten trots varningarna. 

Totalt har NTSB identifierat sju säkerhetsproblem relaterat till olyckan:

  • Förardistraktion
  • Bristande monitorering av förarens engagemang
  • Bristande riskbedömning för systemets driftsförhållanden (Operational Design Domain, ODD)
  • Begränsningar i kollisionsundvikande system
  • Otillräcklig federal övervakning av system som möjliggör delvis automatiserad körning
  • Otillräckliga krav för händelseinspelning vid användning av automatiserade körsystem
  • Bristfällig motorvägsinfrastruktur

Baserat på utredningen har NTSB förnyat sina tidigare rekommendationer samt publicerat nio nya rekommendationer som berör flera organisationer, inklusive Tesla, NHTSA och Apple. 

Enligt NTSB kunde olyckan ha undvikts ifall Autopilot designats på ett sätt så att förare inte kan inbilla sig att fordonet är helt självkörande. NTSB utfärdade säkerhetsrekommendationer angående detta 2017 och drar slutsatsen att Tesla inte följt dessa.

NTSB är också kritiska till säkerhetsorganisationen NHTSA för den otillräckliga översikten av Autopilot. Enligt NTSB borde NHTSA ha gjort mer för att skydda förare.

Apple kritiseras för att de inte utvecklat bättre system för att hindra förare från att använda mobilen i bilen.

En slutrapport från olyckan väntas inom ett par veckor. Här kan ni hitta ett tiotal olika rapporter och dokument från utredningen. 

Källor

[1] NTSB News. Tesla Crash Investigation Yields 9 NTSB Safety Recommendations. 2020-02-25

[2] NTSB. Automation and data summary factual report.

Nuro får dispens från NHTSA

Amerikanska departementet för transport (USDOT) och trafiksäkerhetsorganisationen NHTSA har beviljat dispens från dagens regelverk om fordon för Nuros nya självkörande leveransfordon, R2 [1]. Enligt företaget själva är de först i USA med att få ett sådant undantag.

Med detta undantag kan Nuro byta ut speglar mot kameror och andra sensorer, runda av fordonets kanter så att det tar mindre plats och ersätta vindrutan med en ogenomskinlig panel. Nuro kommer också att kunna ha ”backkameror” påslagna hela tiden, medan de i personbilar måste stängas av när fordonet rullar framåt för att undvika att distrahera mänskliga förare. Detta eftersom Nuro är helt förarlöst.

Undantaget gör det möjligt för Nuro att påbörja testning av det nya fordonet på allmänna vägar och förbereda sig för leveranser till sina kunder, troligtvis i Houston. 

R2 är ganska likt sin föregångare, R1. Det har dock uppgraderats med nya sensorer och mjukvara. Kort sagt så är R2 ett litet fordon utan någon mänsklig förare ombord och med plats för fyra mindre leveranser som kan köra i hastigheter upp till 40 km/h.

Källor

[1] Ferguson, D. Nuro. Introducing R2, Nuro’s Next Generation Self-Driving Vehicle. 2020-02-06 Länk

NHTSAs förslag på testprocedurer

NHTSA publicerade den 21 nov ett utkast med nio procedurer som fokuserar på att bedöma ADAS-system på testbana. De vill nu ha kommentarer från allmänheten på dessa procedurer [1].

Testerna i utkastet är olika former av olyckssenarios, där testprocedurerna varierar i hur utvecklade de är. Det som testas är de olika stödsystem som kan finnas i ett fordon med ADAS, som exempelvis döda-vinkelnvarning, nödbroms och parkeringshjälp. 

Egen kommentar

Detta kom efter att NHTSA fick kritik i en hearing den 19 nov på att de misslyckas med att upprätta strikta AV test standarder [1]. Vare sig det finns ett samband mellan arbetet på dessa test procedurer och kritiken de fick i hearingen är svårt att säga då tiden mellan är väldigt kort.

Källor

[1] NHTSA Requests Comment on Draft Test Procedures for Driver Assistance Systems, TTNews 2019-11-22 Länk

Kritik mot NHTSA

Vid den uppföljande hearingen i amerikanska senaten efter den preliminära rapporten om Uberolyckan fick trafiksäkerhetsmyndigheten NHTSA mycket kritik för att de inte satt upp tuffare krav på såväl tillverkare som delstater [1]. Inte minst fick man kritik för att man släppt igenom Teslas Autopilot, trots att den uppenbart är osäker. Man jämförde med problemen med Boeing 737 MAX8 som ju släpptes igenom av amerikanska luftfartsmyndigheten genom självcertifiering.

NHTSA försvarade sig med att inte vill sätta standarder för tidigt för att inte hindra innovation.

För själva Uberolyckan så ansågs såväl säkerhetsföraren, Uber – för deras system men främst för deras bristande rutiner -, delstaten Arizona, den förolyckade kvinnan och NHTSA vara ansvariga [2].

Källor:

[1] Lora Kolodny: Tesla and Uber draw scrutiny at Senate hearing on self-driving cars: ‘That’s not safe!’, CNBC 2019-11-20 Länk

[2] Brad Templeton: NTSB Hearing Blames Humans, Software And Policy For Fatal Uber Robocar Crash – But Mostly Humans, Forbes 2019-11-19 Länk

Återkoppling till NHTSA

Förra veckan var det deadline för allmänheten att lämna återkoppling till den amerikanska säkerhetsorganisationen NHTSA om hur den bör sköta regleringen av automatiserade fordon. Bland de som lämnat in synpunkter finns Waymo, Center for Auto Safety, Cruise, Lyft, Honda, Starsky Robotics [1, 2]. 

En återkoppling är att NHTSA bör omformulera reglerna så att det blir tillåtet att framföra fordon utan ratt och gas- och bromspedaler. Waymo, Cruise och Honda har till och med uppmanat NHTSA att göra detta snabbt så att fordon utan sådana egenskaper kan introduceras på marknaden. 

Källor

[1] Regulations Länk

[2] Autonews. Write new rules for AV safety, NHTSA told, 2019-09-02 Länk

NHTSA och FMCSA vill ha input från allmänheten

För att undanröja barriärer för automatiserade fordon planerar amerikanska trafiksäkerhetsorganisationerna National Highway Traffic Safety Administration (NHTSA) och Federal Motor Carrier Safety Administration (FMCSA) att anpassa regelverket. För att lista ut exakt vad som behöver anpassas och på vilket sätt söker de input från allmänheten [1]. 

Allmänheten har fram till slutet av juli på sig att lämna kommentarer på Removing Regulatory Barriers for Vehicles With Automated Driving Systems, ett dokument med olika förslag framtaget av NHTSA, samt Safe Integration of Automated Driving Systems-Equipped Commercial Motor Vehicles, framtaget av FMCSA. 

Egen kommentar

Det här är en standardprocess och i enlighet med det som framgick av en tidigare policy där man gav NHTSA och FMCSA i uppdrag att ta fram förslag på hur regelverket behöver anpassas för att öppna upp för automatiserade fordon. 

Källor

[1] NHTSA. U.S. Department of Transportation Seeks Input on Testing Vehicles with Automated Driving Systems Technologies. 2019-05-28 Länk

En ny Tesla-olycka

Nu har det inträffat ännu en dödsolycka med en Tesla-bil som körde med Autopilot.

Utredare vid NTSB (National Transport Safety Board) har funnit att båda männen som omkom i Tesla-krascherna använde förarassistentsystemet Autopilot i samband med kollisionerna [1], [2].

Autopilot är ett Level 2 semi-autonomt system, som enligt Society of Automotive Engineers beskrivs som ett system som kombinerar adaptiv farthållare, körfälthållare, självparkering och nu senast möjligheten att automatiskt byta körfält.

Efter den första kraschen under 2016 fick Tesla en chans att adressera så kallade  ”edge cases” (ovanliga scenarion) för att kunna redesigna Autopilot. Tesla sade då att kameran misslyckats med att känna igen den vita lastbilen mot en ljus himmel; US National Highway Traffic Safety Administration (NHTSA) fann i huvudsak att föraren inte var uppmärksam på vägen och gjorde bedömningen att Tesla var oskyldiga.

Det som avslöjas nu är att trots att båda krascherna hade helt olika versioner av förarassisten teknologin (trots att båda kallas Autopilot) ledde de båda versionerna till dödligt utfall. Autopiloten i den första kraschen baserades på teknologi som utvecklats av den israeliska start-upen Mobileye (som sedan förvärvades av Intel). Olyckan var delvis anledningen till att de två företagen avslutade sitt samarbete 2016.

Den andra kraschen nu var med en Model 3 som var utrustad med en andra generationens Autopilot som Tesla utvecklat in-house. NTSB har sagt att föraren körde med Autopilot ca 10 sekunder innan den kraschade in i ett släpfordon. Föraren hade inte händerna på ratten i nästan åtta sekunder före kraschen och nationella utredare undersöker fortfarande fallet.

Säkerhetsexperter har noterat att system med adaptiva farthållare (som Autopilot) förlitar sig mest på radar för att undvika kollisioner. Radar är bra för att upptäcka rörliga objekt men inte stationära. Systemet har också svårt att upptäcka föremål såsom ett fordon som korsar vägen och inte rör sig i bilens färdriktning.

Egen kommentar

Tesla har ännu inte kommenterat kring hur de planerar att åtgärda detta problem. Detta kommer inte som en extra pålaga eftersom det inte bara är en teknisk aspekt som behöver åtgärdas utan också moraliska aspekter som alla som utvecklar denna teknologi behöver adressera [3]. Det finns nämligen inga tydliga parametrar för när ett självförande fordon anses vara tillräckligt säkert för att sättas på vägen. Det man inte heller vet är vilka metoder som ska användas för att bevisa att en självkörande bil är säker nog. Ska man sedan sikta på att ha fordon som kör 10% bättre eller 100% bättre än mänskliga förare?

En studie gjord 2017 av RAND Corporation fann att ju tidigare automatiserade fordon används, desto fler liv kommer man i slutändan att rädda, även om bilarna är bara lite säkrare än bilar som körs av människor. Forskare fann att på lång sikt kan introduktion av bilar som bara är 10% säkrare än en genomsnittliga förare rädda fler liv än att vänta tills fordonen är 75% eller 90% bättre.

Viktigt att notera är att Tesla, oberoende av den senaste händelsen, kommer att strypa Autopilot och Summonfunktionerna i Europa. Detta till följd av det reviderade regelkravet UN/ECE R79. I sin senaste produktuppdatering skriver företaget: ”På grund av nya lokalregleringar har man justerat gränsen för hur mycket ratten får vridas då ”Autosteer” är aktiverat. Det här kan reducera ”Autosteers” förmåga att genomföra skarpa svängar. Därutöver så måste körriktningsvisaren hållas i första spärren (delvis ned eller upp) och filbytet måste inledas inom fem sekunder efter att blinkers satts igång.”

Källor

[1] Hawkins, A.J., Tesla didn’t fix an Autopilot problem for three years, and now another person is dead. The Verge 2019-05-17 Länk

[2] Tesla’s Autopilot system was engaged during fatal Florida crash in March – NTSB. Reuters 2019-05-16 Länk

[3] Stewart, E., Self-driving cars have to be safer than regular cars. The question is how much. Vox 2019-05-17 Länk