Kategoriarkiv: Trafiksäkerhet

Effekten av subtila automationsfel

En grupp forskare från University of Leeds och företaget Seeing Machines har publicerat en studie där de undersökt hur förare reagerar på subtila (silent) automationsfel utan att de fått någon förvarning eller förfrågan om att ta över kontrollen [1]. Dessutom har de undersökt sambandet mellan sådana fel och förares engagemang i visuella uppgifter. 

Studien genomfördes i en körsimulator med 30 förare. Varje förare fick uppleva följande två testfall med sex subtila fel var: 

  1. Föraren behöver övervaka trafiken och hålla utkik efter variabla trafikskyltar (VMS)
  2. Föraren behöver övervaka trafiken och hålla utkik efter variabla trafikskyltar (VMS) samt engagera sig i en visuell icke-körrelaterad uppgift.

Automationen gestaltades av adaptiv farthållare och körfälthållare. Automationens status (tillgänglig/på/av/manuell kontroll) visades via ett gränssnitt i kontrollpanelen. Subtila automationsfel infördes genom att avaktivera automationen och övergå till manuell kontroll. Felen sammanföll med en mycket subtil sidoförflyttning av fordonet (0,2 graders offset i rattvinkel). Ett förarövervakningssystem användes för att studera förarnas ögonbeteende och uppmärksamhet.

Resultaten visade att i båda testfallen upptäckte och reagerade alla förare på samtliga subtila automationsfel så småningom. Att engagera sig i en visuell icke-körrelaterad uppgift när det subtila felet inträffade resulterade dock i betydligt fler körfältsavvikelser och längre övertagningstid. Det ändrade distributionen av förarnas visuella uppmärksamhet före och efter felet samt hur de fördelade uppmärksamheten mellan trafiken och gränssnittet som visade automationens status. 

Resultaten antyder att subtila fel kan trigga förarreaktionen. Detta i kombination med förarövervakningssystem kan användas som ett verktyg att hålla förare alerta och med i kontroll-loopen. 

Egen kommentar

Under de senaste åren har mycket fokus gått åt studier om kontrollöverlämning mellan automation och mänskliga förare. Däremot är effekten av subtila automationsfel ett mindre utforskat område. Något som också studeras i FFI-projektet HARMONISE.

Här kan man också dra paralleller till logiken som vissa fordonstillverkare indikerat att de använder sig av: att medvetet göra förarstödsystem lite skakiga så att förarna behöver hålla händerna på ratten. Det räcker inte med att visa varningar till förare utan man behöver också känna vad som händer, t.ex. att man håller på att glida utanför körfältet. 

Källor

[1] Louw, T., et al., 2019. Engaging in NDRTs affects drivers’ responses and glance patterns after silent automation failures. Transportation Research Part F: Traffic Psychology and Behaviour. Länk

Volvos bilar varnar varandra i hela Europa

Volvo Cars funktioner Hazard Light Alert, som sänder meddelande till andra Volvobilar i omgivningen när varningsblinkers slås på, och Slippery Road Alert, som samlar in vägfriktionsinformation och skickar denna till andra Volvobilar i omgivningen, har funnits på marknaderna i Sverige och Norge sedan 2016. Men nu släpper man funktionen till hela den Europeiska marknaden, enligt ett pressmeddelande [1]. Funktionerna blir standardutrustning på alla Volvobilar av modellår 2020 men kan också eftermonteras på vissa äldre modeller.

Ännu bättre hade det förstås varit om bilar av olika märken kunnat kommunicera denna information med varandra. I t.ex. Tyskland är det inte så tätt mellan Volvobilarna som i Sverige. Men det hade då krävt att man kommit överens om standarder och principer för att dela data, inklusive delning av eventuella kostnader, vilket Volvo nu inbjuder övriga industrin till. Kommer de att nappa på detta, eller vill alla att andra ska anpassa sig till just deras standard?

Källa

[1] Volvo models across Europe to warn each other of slippery roads and hazards, Volvo Cars press release 2019-04-15 Länk

Konsortium för säkerhet

SAE International, Ford, General Motors (GM) och Toyota har bildat ett säkerhetskonsortium för automatiserade fordon av nivå 4 och 5 [1]. Konsortiet heter Automated Vehicle Safety Consortium (AVSC).

Målet är att informera och påskynda utvecklingen av industristandarder. AVSC kommer att utveckla ett ramverk för säkerhet med automatiserade fordon så att tekniken kan utvecklas och implementeras på ett ansvarsfullt sätt. Det kommer också att harmonisera liknande arbeten från andra konsortier och standardiseringsorgan.

Som ett första steg kommer AVSC att ta fram en färdplan med prioriteringar som stöd för utvecklare, tillverkare och de som integrerar tekniken. Den kommer att fokusera på datadelning, interaktion mellan automatiserade fordon och andra trafikanter samt riktlinjer för säker testning. 

Egen kommentar

Utan att ha direkt insyn i det planerade arbetet tycker jag att detta är ett bra initiativ. Oavsett vad lagar och regler säger så bör det vara tillverkarnas ansvar att se till att tekniken utvecklas och testas på ett ansvarsfullt sätt. På samma sätt bör samhället efterfråga ansvarsfull utveckling av produkter och tjänster och på det viset sätta press på tillverkarna. I slutändan kan ”ansvarsfullhet” vara en avgörande faktor för vilken tillverkare som lyckas bäst med automatiserade fordon. 

Källor

[1] SAE International, Ford, General Motors and Toyota Announce Formation of Consortium to Address Autonomous Vehicle Safety. 2019-04-03 Länk

Smarta övergångsställen

Smarta övergångsställen ska förhindra olyckor mellan självkörande fordon och fotgängare. Det är i alla fall tanken bakom Bercman Technologies uppkopplade övergångsställe som skickar information om fotgängare som går över gatan [1].

Fotgängarolyckor är vanliga, ungefär en fjärdedel av alla dödsolyckor i trafiken i Europa, och en typisk orsak är att man förlitar sig alltför mycket på att övergångsställen är säkra.

Källa

[1] James Billington: Smart pedestrian crosswalk uses V2X to help save pedestrian lives, Autonomous Vehicle International 2019-03-14 Länk

Uber ej rättsligt ansvariga för dödsolyckan 

I början av veckan kom besked från åklagaren som utrett förra årets olycka, där en självkörande Uber-bil körde ihjäl en fotgängare i Tempe i Arizona [1].  Åklagarens slutsats är att Uber inte kan hållas rättsligt ansvariga för olyckan. 

Det avslöjas inga fler detaljer kring den slutsatsen. Däremot konstaterar åklagaren att videomaterialet från olyckan inte visar hela sanningen och att experter bör analysera den ihop med annat material för att avgöra vad och när en förare kunde och borde ha sett under händelseförloppet: 

Based on the entire investigation, this Office has concluded that the collision video, as it displays, likely does not accurately depict the events that occurred. We therefore recommend that the matter be furthered to the Tempe Police Department to obtain additional evidence. Specifically, we believe that an expert analysis of the video is needed. The purpose of the expert analysis is to closely match what (and when) the person sitting in the driver’s seat of the vehicle would or should have seen that night given the vehicle’s speed, lighting conditions, and other relevant factors. 

Fallet är inte avslutat ännu. 

Egen kommentar

Reaktionerna kring det här beskedet har varit många och blandade. Utan att vara insatt i sådana här processer så tror jag att mer transparens och information från åklagarsidan hade hjälpt.

Angående videon från olyckan har det framkommit kommentarer om att den är missvisande. En GoPro-video av scenen som gjordes av New Times strax efter kraschen visar att vägen var mer belyst än vad som framgår av olycksvideon.

Källor

[1] Yavapai County Attorney. Re: Rafael Vasquez / Uber Corporation, Tempe Police Department #2018-32694. 2019-03-04 Länk

Moores lag för självkörning

I en artikel av May Mobility gör företagets chef Edwin Olson en empirisk beräkning av hur lång tid det tar för självkörande fordon att fördubbla sin förmåga, mätt utifrån hur lång sträcka de i snitt kan köra mellan tillfällen då en människa får ta över [1].

Det visar sig vara 16 månader (vanliga Moores lag är ju 18 månader), vilket låter bra men innebär att det kommer ta 16 år att nå samma prestanda som dagens mänskliga förare. Det beror på att i nuläget de självkörande fordonen klarar bara 0,01% av vad människan gör.

De möjligheter som finns för att snabba upp detta är antingen att bara förenkla uppgiften för fordonen, som att köra i låg fart längs förprogrammerade rutter i enkla trafikmiljöer, eller att man kan hitta teknologisprång som gör det möjligt att snabba upp fördubblingshastigheten (vilket förstås May Mobility hävdar att de gjort).

Egen kommentar

Detta är ett analytiskt grepp med samma resultat som flera andra kommit fram till: att det är svårt för att inte säga omöjligt för robotbilar att köra överallt i alla förhållanden alltid (SAE-nivå 5) och att man måste hitta enklare ”ODD – Operational Design Domains”.

Källa

[1] Edwin Olson: The Moore’s Law for Self-Driving Vehicles, Medium 2019-02-27 Länk

Cyklister ett problem för autonoma fordon

KPMG har uppmärksammat ett problem kopplat till det ökande antalet cyklister i städer [1].

Förarlösa fordon använder ju en kombination av kameror, radarer och lidarer för att identifiera objekt och kunna stanna eller väja om de beräknas komma in i fordonets bana.

Men cyklister har väldigt olika form och storlek, följer inte alltid filer eller trafikregler och kan ändra fart och riktning väldigt snabbt. Detta gör det svårt för fordonens algoritmer att bedöma riskerna.

Ett förslag till lösning är att skilja trafikslagen åt.

Egen kommentar

Att separera trafikslagen åt för att möjliggöra självkörande fordon skulle innebära stora offentliga investeringar. Här i Göteborg där infrastrukturen för cyklar är av mycket varierande kvalitet skulle det nog bli dyrt. Men görs det inte så kommer de framtida autonoma fordonen att tvingas sakta ner (ytterligare) för att öka marginalerna.

Källa:

[1] Daniel Boffey: Bikes put spanner in works of Dutch driverless car schemes, The Guardian 2019-02-13 Länk

Lästips: Säkerhet och dess validering

En grupp forskare från Carnegie Mellon University har nyligen publicerat en artikel under titel Credible Autonomy Safety Argumentation. Utifrån en rad erfarenheter diskuterar de hur man beskriver, utvärderar och validerar säkerheten hos automatiserade fordon.

Det de påpekar speciellt är att vi har en tendens att blint förlita oss på standarder, som exempelvis ISO 26262. Men en standard som appliceras på fel sätt eller med fel ändamål kan vara vilseledande och rentav skadlig. 

Avaktivering av systemet

Kaliforniska departementet för motorfordon (DMV) har nu publicerat avaktiveringsrapporter för automatiserade fordon som testats på allmänna vägar under perioden december 2017 till november 2018 [1, 2]. 

Det var totalt 48 företag som hade tillstånd för tester och som var skyldiga att lämna in rapporter. Av dem är det 28 som rapporterat att de genomfört testning på allmänna vägar med 467 fordon. Flera företag, inklusive Tesla, har rapporterat att de inte genomfört någon testning på allmänna vägar under denna period. 

Störst fordonsflotta rapporterades av Cruise (GM) med 162 fordon, följt av Waymo med 111 fordon och Apple med 62 fordon. 

Totalt sett körde alla företag 3 258 074 km (2 036 296 miles) i autonomt läge. Under tiden avaktiverades systemet vid 143 720 tillfällen dvs. säkerhetsföraren fick ta över, antingen på egen eller på systemets initiativ. 

Om man tittar på antalet systemavaktiveringar per 1000 körda kilometer så är det Waymo som ligger bäst till med 0,06 avaktiveringar. Därefter kommer Cruise (0,12), Zoox (0,33), Nuro (0,61) och Pony.ai (0,61). Sämst till ligger Uber och Apple med 1630,29 respektive 544,78 avaktiveringar per 1000 km. 

Enligt Waymos egna blog har företaget halverat antalet avaktiveringar sedan 2017. 

Egen kommentar

Innebär det här att Waymo är bäst? Kanske. Men här är det viktigast att fråga sig om antalet körda kilometer och avaktiveringar säger något konkret mer än att man kört mycket? Ur ett trafiksäkerhetsperspektiv är jag ytterst tveksam till det. 

En annan viktig detalj är att antalet avaktiveringar kan bero på flera faktorer, inte minst hur rigorösa säkerhetsförarna är. Exempelvis förtydligade Apple i ett brev till DMV att de tränat upp sina säkerhetsförare att vara extremt försiktiga och ingripa vid minsta lilla otydlighet eller trafiksituation som systemet inte testats för innan.

Källor

[1]  Autonomous Vehicle Disengagement Reports 2018 Länk

[2] The Last Driver License Holder… UPDATE: Disengagement Reports 2018 – Final Results. 2018-02-13 Länk

HAde NHTSA fel om Tesla?

I samband med den första kända dödsolyckan med Teslas Autopilot påslagen inledde den amerikanska trafiksäkerhetsorganisationen NHTSA en undersökning [1] om funktionen, genom att bland annat analysera data som Tesla på begäran hade lämnat in. En av slutsatserna från utredningen var att antalet olyckor med Teslas fordon hade minskat med 40% sedan företaget installerat Autopilot (eller Autosteer som NHTSA kallar det). 

På företaget Quality Control Systems ville man dubbelkolla att NHTSA räknat rätt och efter en utdragen process fick de tillgång till datamängden som NHTSA använt som underlag för sina beräkningar. Nu har företaget publicerat sin analys som antyder att NHTSAs analys var gjord på bristfälliga data och med bristfällig analys [2]. 

Enligt Quality Control Systems var det bara 5 714 av 43 781 fordon i NHTSAs beräkning som hade verifierbara data. När de sedan gjorde om analysen på dessa 5 714 fordon fick de fram att installationen av Autopilot lett till en ökning i antalet olyckor. 

Egen kommentar

Med ”rätt” statistisk metod kan man bevisa precis vad man vill! Med detta sagt så vill jag uppmana alla att vara försiktiga med vilka metoder de använder och hur de tolkar resultaten.

Källor

[1] NHTSA. ODI Resume. Automatic vehicle control systems. 2016-06-28 Länk

[2] NHTSA’s Implausible Safety Claim for Tesla’s Autosteer Driver Assistance System. 2019-02-08 Länk