Kategoriarkiv: Samverkan människa – maskin

Toyota pausar skyttelbusstester

Toyota har den uttalade målsättningen att ”erbjuda världens säkraste mobilitetslösning”. Under Tokyo-OS visade de sina autonoma e-Palette-skyttelbussar. Efter en kollision med en atlet med synnedsättning har de nu pausat tester av samåkningstjänsten [1].

Kollisionen ska ha skett under manuellt framförande av fordonet i en korsning i väldigt låg hastighet (1-2 km/h).

Egen kommentar

Olyckan ska skett under manuellt framförande där en ”joystick” använts för att köra fordonet. Det hade varit intressant att få veta om detta speciella styrdon bidrog till olyckan. Alternativa styrdon testas även för fjärrkontroll av autonoma fordon då det där inte förutsätts att ratt och pedaler kommer användas för att framföra fordonen manuellt.

Källa

[1] Hawkins, A. J., The Verge. Toyota pauses self-driving ‘e-Palette’ service after one crashed into an Olympic athlete. 2021-08-27 Länk

NIO Autopilot har sin första dödsolycka i Kina

Skrivet av Lei Chen

NiO är en av de kinesiska elfordonstillverkarna som utmanar Tesla. NOP (Navigation of Pilot) är NiOs autopilot som tillåter fordonen att sköta flera köraktiviteter. Den kombinerar navigering, högupplösta kartor och det redan befintliga förarstödssystemet NiO Pilot [1].

Det har framgått under presentationerna av NOP att det, precis som NiO Pilot, fortfarande ”bara” är ett förarstödsystem och inte erbjuder autonom körning. Den 12 augusti kraschade en NiO ES8 med aktiv NOP med ett arbetsfordon på en motorväg i Shengha. Den 31-årige NiO-föraren dog.

Detta är den första dödliga kraschen med Nios autopilot och väcker återigen debatten om autonoma fordons säkerhet. Användningen av ”autonom körning” som begrepp har uppfattas som otydligt och företag har marknadsfört sina fordon som autonoma när de i själva verket bara erbjudit förarstöd.

Egen kommentar

Det är inte nytt att vissa autopilotsystem har problem med att upptäcka statiska fordon. I USA har NHTSA nyligen börjat utreda Tesla då de orsakat flera krascher med utryckningsfordon (vilket vi skrev om här). Å andra sidan krävs det även att förarstödsfunktioner förklaras för användarna på bra sätt . Förarövervakning kan komma visa sig bli ett måste för att undvika missbruk av förarstödssystemen.

Källa

[1] Chi, S., China Daily. Electric car accident raises autopilot concerns. 2021-08-16 Länk

Autonomt leveransfordon på Nordstans tak

Det svenska forskningsprojektet GLAD (Goods delivery under the Last mile with Autonomous Driving vehicles) där RISE, Aptiv, Clean Motion, Combitech och Högskolan i Halmstad undersöker interaktionen mellan autonoma leveransfordon och andra trafikanter har nu utfört tester med fotgängare på Nordstans tak [1].

Projektets fokus är på acceptans och tillit till sådana fordon, men berör också andra aspekter så som den självkörande tekniken, metodik för utvärdering av externa gränssnitt på autonoma fordon, affärsmodeller samt digital och fysisk infrastruktur.

Projektet som är finansierat av Trafikverket påbörjades i mars 2019 och är planerat att avslutas i augusti 2021.

Källa

[1] RISE. News Cision. Test med självkörande fordon och fotgängare på Nordstans tak. 2021-06-30 Länk

Nytt inom leveransfordon

Refraction AI testar i Texas. Michiganbaserade Refraction AI som tillverkar autonoma leveransfordon (ADV) ska påbörja pilottester i Texas. Testerna kommer använda en flotta på 10 leveransfordon som ska leverera mat ifrån en pizzarestaurang. Refraction AIs fordon är av den medelstora varianten, vilket innebär att de inte är avsedda för trottoarer men kommer köra i cykelfiler längs trottoarer. Länk

Nuro och FedEx samarbete i Houston. ADV-tillverkaren Nuro som är baserat i Kalifornien har påbörjat ett samarbete med det amerikanska logistikföretaget FedEx för att testa leverera paket i staden Houston i delstaten Texas. Nuro har sedan 2019 gjort andra tester i Houston b.la med pizzeriakedian Dominos. Länk

Ford och Hermes kör Wizard of Oz leveranser. I storbrittanien ska fordonstillverkaren Ford och brittiska leveransföretaget Hermes samarbeta i ett forskningsprogram som Ford kallar Self-Driving Vehicle Research Programme. Just denna del av programmet går ut på att undersöka hur allmänheten interagerar med autonoma leveransfordon. Fordonet i det här fallet är en Ford Transit skåpbil som ser ut att vara utrustad med självkörande teknologi och där föraren i fordonet kommer vara dold för omgivningen. Länk1 Länk2

Smart Eye köper Affectiva

Göteborgsbaserade trafiksäkerhetsbolaget SmartEye expanderar sin verksamhet inom fordonsinteriörsensorer genom att köpa Bostonbaserade Affective [1].

Affective har tidigare rönt stor uppmärksamhet för bland annat sitt arbete med att träna AI att förstå mänskliga känslor och intentioner.

Antalet SmartEye-anställda blir därmed i ett slag ungefär dubbelt så många.

Källa

[1] SmartEye. Smart Eye and Affectiva Join Forces to Lead Growing Interior Sensing Market. 2021-05-25 Länk

Amerikaner obekväma med autonoma fordon

Den ideella trafiksäkerhetsorganisationen AAA har i samarbete med Harvard Kennedy School’s Belfer Center for Science and International Affairs genomfört en undersökning med syfte att ta reda på vad amerikanska förare tycker och tror om autonoma fordon [1].

Undersökningen visade att de flesta tillfrågade skulle känna sig obekväma med att dela väg med autonoma fordon, oberoende vilken trafiksituation det gäller och om det handlar om lastbilar, små leveransfordon eller personbilar. Deras oro skulle dock kunna lindras betydligt med hjälp av tydliga markeringar som visar att det är ett autonomt fordon, körfält avsedda för autonoma fordon samt begränsade tider då autonoma fordon får färdas på allmän väg.

En annan intressant slutsats från undersökningen är att bara 35% av de tillfrågade visste att det finns delstater i USA som tillåter testning av självkörande fordon på allmänna vägar idag. Detta trots att testning är tillåten i 38 delstater samt i District of Columbia. Ungefär 30% av de tillfrågade hade negativ åsikt om att det pågår testning på allmänna vägar. Detta motiverades med följande faktorer: att dela väg med autonoma fordon är osäkert, att ansvarsfrågor är otydliga i fall att det sker en olycka, att det är otydligt vem som överser tester, att allmänheten behöver utbildas bättre samt att andra förare ej vet att fordonet i närheten är autonomt. 

Baserat på undersökningen föreslås följande åtgärder:

  • Autonoma fordon som används på allmänna vägar bör uppvisa säkert och förutsägbart beteende – som definierats av tillsynsmyndigheter.
  • Autonoma fordon bör fungera konsekvent och enligt plan.
  • Allmänheten förstår tydligt vem som skulle vara ansvarig vid en kollision med ett autonomt fordon.
  • Allmänheten kan enkelt och snabbt identifiera när de delar vägen med ett autonomt fordon.

Egen kommentar

Just nu finns det två skolor i branschen kring den sista punkten ovan: en som tycker att autonoma fordon inte bör visa på något sätt att de är autonoma, och en annan som tycker tvärtom. Standardiseringsorganisationen SAE har föreslagit att fordon som färdas på allmän väg ska visa med en lampa att de framförs i autonomt läge. I Japan har man krav på att fordon som framförs i automationsläge motsvarande SAE-nivå 3 på allmän väg ska vara utrustade med en skylt (sticker) som visar detta. Ämnet diskuteras för närvarande också inom standardiseringsorganisationen ISO, som jag personligen är involverad i, och där lutar det åt att fordon som kan framföras endast i autonomt läge (s.k. single mode vehicles) inte behöver visa på något specifikt sätt att de är autonoma när de färdas på allmän väg. Däremot föreslår ISO standarden för autonoma fordon i gruvor och dylikt att fordon ska visa med en specifik lampa både när de framförs i autonomt läge och när de framförs manuellt. Sista ordet om detta är nog inte sagt ännu. 

Det är lite oklart hur undersökningen från ovan gjorts exakt. Troligtvis handlar det om undersökningen som genomfördes i januari 2021 där 1010 amerikanska förare blev intervjuade.

Källor

[1] AAA News Room. Drivers should know if they are sharing the road with self-driving test vehicles. 2021-05-14 Länk

Varför behövs Explainable AI (XAI)?

Våra liv är fyllda av förklaringar. Vi går till doktorn för att få vår onda axel undersökt. Doktorn säger till dig att vila armen och undvik tunga lyft. Dessutom får du ett recept på ett läkemedel. Du undrar direkt, varför behöver jag ta medicin? Du vill också få reda på vilken diagnos doktorn ställt på min axel? Och hur lång tid kommer det ta innan den blir bra? Du frågar efter mängder av förklaringar.

Legendaren Lance Eliot har skrivit en artikel om varför förklarande AI (Explainable AI, XAI) behövs för autonoma fordon [1].

Utmaningen ligger i att ställa rätt fråga och att den som förklarar förstår på vilken nivå förklaringen ska ges. Inte sällan sker förklaringen under en dialog allteftersom mer och mer information faller på plats hos den som ställer frågor.  

När människor interagerar sker denna dialog naturligt. Men vad händer om vi interagerar med en maskin, ett system eller ett autonomt fordon? Inga av dagens AI-baserade system har tillräcklig förmåga att fullständigt känna igen en människas beteende eller tal och därmed får AI-systemet problem att kunna engageras i en naturlig dialog med sina användare.

Tänk dig situationen när du åker i ett autonomt fordon som plötsligt tar en annan rutt än den vanliga eller att fordonet du färdas i plötsligt bromsar kraftigt. I ett vanligt fordon skulle du fråga chauffören varför detta plötsliga beteende. Men hur ska det ske i ett fordon utan mänsklig förare? Ska passageraren koppla upp sig till kundtjänst eller fjärrkontrollcenter?  Det skulle inte skala särskilt bra med flera hundra tusen fordon som samtidigt är ute och kör.

XAI är en mycket viktig komponent för att skapa autonoma fordon. Lämpliga och lägliga förklaringar till fordonets beteende kan vara avgörande för att vi användare ska kunna lita på fordonet.

Sammanfattningsvis, vi som åker med autonoma fordon kommer vilja ha förklaringar av olika slag från fordonet. Ett kostnadseffektivt och lättillgängligt system som kan ge dessa förklaringar skulle förkroppsligas av ett XAI som baseras på det AI-system som kör fordonet.

Egen kommentar

Som AI forskare inses lätt nyttan med denna typ av system, tänk om Alexa eller Siri förstod allt jag vill eller undrar! Samtidigt finns ett spännande kunskapsgap mellan vad som är möjligt att visualisera med avseende på information som ligger till grund för ett beslut i ett AI/Machine learning-system och ett system som kan interagera med en användare och som förstår innebörden av grunderna i beslutet.

Källa

[1] Lance, E, Forbes. Explaining Why Explainable AI (XAI) Is Needed For Autonomous Vehicles And Especially Self-Driving Cars. 2021-04-24 Länk

Acceptans kring autonoma fordon

Den Europeiska Kommisionens e-tidning har publicerat en artikel kring acceptans av autonoma fordon [1]. Den är i huvudsak baserad på intervjuer med forskningsprojektet Trustonomys projektkoordinator Stefano Bianchi från italienska företaget algoWatt och forskningsprojektet BRAVEs projektkoordinator Ingrid Skogsmo från VTI.

Stefano Bianchi belyser utmaningen med olika målgruppers syn på autonoma fordon och att personer som är tidiga med att ta till sig ny teknik (early adopters) kan uppvisa en för stor tillit till autonoma fordon och ta för stora risker med automatiserade körfunktioner vilket i sin tur leder till olyckor och mindre tillit för autonoma fordon i resten av befolkningen. I Trustonomy-projektet utvecklar de kurser för förare där deltagarna får utbildning kring förmågorna och begränsningarna i autonoma fordon och man hoppas kunna använda sig av det här i framtiden för exempelvis yrkesförare.

Ingrid Skogsmo berättar om BRAVE-projektet där forskare samlat in enkätsvar från 7000 personer från sju länder och som bland annat visat att deltagarna litar mer på mänskliga förare än autonoma fordon. Ungefär 30% av deltagarna konstaterade att hade känt sig otrygga med att gå över vägen om ett autonomt fordon närmade sig. Studien visade också att det viktigaste för övriga trafikanter är att veta vad fordonet ska göra och när det ska göra det. Vidare så diskuteras vikten av regelverk som ett stöd till att argumentera för teknologin i autonoma fordon och skapa större förståelse.

I en annan relevant studie som nyligen publicerats undersökte forskare hur kunskap och erfarenhet av adaptiv farthållare (ACC) och filhållningsstöd (LKA) påverkade tillit till dessa system[2]. Resultaten visade bland annat:

  • Att ägare till fordon med ACC och LKA inte hade bättre kunskap om funktionernas förmågor och begränsningar än personer som inte ägde fordon med ACC och LKA.
  • Att de som ägde fordon med ACC och LKA tenderade att överskatta förmågan hos dessa system.
  • Att icke-ägare med mer kunskap litade mindre på ACC och LKA.
  • Att varken kunskap om eller inställning till ACC och LKA påverkade tillit hos ägare av fordon med dessa system.

Egen kommentar

Det intressanta som framgår av de två sista punkterna från artikeln ovan är att kunskap kring förmågor och begränsningar hos förarstödssystem inte nödvändigtvis påverkar förarans tillit till dessa system, i alla fall inte i den här studien. Forskarna föreslår därför att en översiktlig förklaring att systemen inte är felfria kan vara tillräckligt för att stötta de initiala interaktionerna som användare har med systemen.

En annan observation från min sida är att det verkar som att transparens i form av extern kommunikation skulle kunna vara ett sätt att uppnå acceptans, åtminstone när det gäller direkt interaktion mellan fotgängare och autonoma fordon. Sedan kan utbildning och informationsspridning vara en lösning på ett generellt plan. Gällande det sistnämnda så är det viktigt att ta reda på vad för information och hur mycket information som behövs, vilket delvis adresseras i den sista artikeln som presenterades ovan.

Källor

[1] Burke, F., Horizon Magazine. Do you trust automated cars? If not, you’re not alone. 2021-04-20 Länk

[2] Deguzman, C., & Donmez, B., Accident Analysis and Prevention. Knowledge of and trust in advanced driver assistance systems. 2021-04-18 Länk

Krav på nivå 3 från Mobileye

I en samförfattad artikel av den verkställande direktören på Mobileye, Amnon Shashua, och den utvecklingsansvarige på Mobileye, Prof. Shai Shalev-Shwartz, diskuteras automationsnivå 3 (enligt SAE skalan) och några förslag på krav presenteras [1].

Enligt standarden J3016 från Society of Automotive Engineers (SAE) som berör automationsnivåer skiljer sig nivå 3-5 från nivå 0-2 på så sätt att 3-5 skall kunna utföra alla köruppgifter (Dynamic Driving Task: DDT) inom given designdomän (Operational Design Domain: ODD). Vidare så skall personen i förarsätet kunna ta över kontrollen av köruppgifterna omedelbart i automationsnivå 0-2 medan övertagandet av kontroll för nivå 3-5 inte sker omedelbart.

Mobileye författarna gör här en poäng kring att man i automationsnivå 3 inte kan anta ett mindre sofistikerat självkörande system än automationsnivå 4 och 5 eftersom vad som helst kan hända under den tid som personen i förarsätet har på sig att ta tillbaka kontrollen, då överföringen inte sker omedelbart. Med andra ord så kan ett automationsnivå 3 system inte endast vara designat att hantera sin ODD, utan bör klara DDT även utanför sitt ODD.

En annan del av artikeln berör det som de kallar för ”Black Swans” vilket innebär att ett system exempelvis kan göra perceptuella missar som på förhand inte går att veta om systemet kommer att göra. Man kan dock få ut en statistisk uppskattning på sådana fel där måttet ”Mean-Time-Between-Failures” (MTBF) ger en genomsnittstid för systemet innan det gör ett ”Black Swan” fel. Författarnas förslag här är att MTBF inte får vara lägre än siffror ifrån olycksstatistik med mänskliga förare för automationsnivå 3-5.

Egen kommentar

Kopplat till det här ämnet kan ni också läsa en nyligen publicerad artikel från den internationella forskargruppen HF-IRADS kallat Can the human driver be made responsible when automation is unable to handle the situation? Där lyfter fram de liknande oro som Mobileye, till och med för avancerade förarstödssytem som idag klassas som SAE-nivå 2.

Källa

[1] Amnon Shashua. Medium. On Black Swans, Failures-by-Design, and Safety of Automated Driving Systems. 2021-03-14 Länk

Högre hastigheter med förarstödssystem

Den amerikanska organisationen Insurance Institute for Highway Safety (IIHS) har ihop med MIT gjort en studie som visar att förare är mer benägna att köra över hastighetsgränserna när de använder förarstödssystem [1].

Studien ägde rum i Boston och omfattade 40 förare. Hälften av dem fick använda en 2016 Land Rover Range Rover Evoque utrustad med vanlig adaptiv farthållare (ACC), medan hälften använde en 2017 Volvo S90 utrustad med ACC med körfältscentrering (läs: Pilot Assist) under en fyra veckors period.

Resultaten visar att för det mesta så väljer förare hastigheten själva för adaptiv farthållare, och ofta ställer de in funktionen på en hastighet som är över hastighetsgränsen för vägen. Resultaten visade också att förarna var 24% mer benägna att köra över hastigheterna. Dessutom körde förarna i högre hastigheter med förarstödssystemen än utan. Studien visade dock inga signifikanta skillnader i hastigheter för de två olika förarstödsysstemen som testades.

Egen kommentar

Som IIHS skriver själva i den aktuella källan så spelar andra faktorer också in för olycksrisken. Exempelvis tittade forskarna inte på avståndsinställningarna till framförvarande fordon.

Sedan är det värt att påpeka att adaptiv farthållare anpassar ju sig efter framförvarande fordons hastighet, så även om man ställer in på högre hastighet så kör fordonet inte fortare än framförvarande fordon. Resultaten här bli därmed paradoxala om vi inte antar att alla andra fordon på vägen också hade adaptiv farthållare, eller att det helt enkelt inte fanns något framförvarande fordon i den större delen av datat.

Till sist vill vi påminna om ett svenskt initiativ just för mer hållbara hastigheter som startats av Trafikverket och en rad andra aktörer: Tillsammans för hållbara hastigheter!

Källa

[1] IIHS. Adaptive cruise control spurs drivers to speed. 2021-03-11 Länk