Varför behövs Explainable AI (XAI)?

Våra liv är fyllda av förklaringar. Vi går till doktorn för att få vår onda axel undersökt. Doktorn säger till dig att vila armen och undvik tunga lyft. Dessutom får du ett recept på ett läkemedel. Du undrar direkt, varför behöver jag ta medicin? Du vill också få reda på vilken diagnos doktorn ställt på min axel? Och hur lång tid kommer det ta innan den blir bra? Du frågar efter mängder av förklaringar.

Legendaren Lance Eliot har skrivit en artikel om varför förklarande AI (Explainable AI, XAI) behövs för autonoma fordon [1].

Utmaningen ligger i att ställa rätt fråga och att den som förklarar förstår på vilken nivå förklaringen ska ges. Inte sällan sker förklaringen under en dialog allteftersom mer och mer information faller på plats hos den som ställer frågor.  

När människor interagerar sker denna dialog naturligt. Men vad händer om vi interagerar med en maskin, ett system eller ett autonomt fordon? Inga av dagens AI-baserade system har tillräcklig förmåga att fullständigt känna igen en människas beteende eller tal och därmed får AI-systemet problem att kunna engageras i en naturlig dialog med sina användare.

Tänk dig situationen när du åker i ett autonomt fordon som plötsligt tar en annan rutt än den vanliga eller att fordonet du färdas i plötsligt bromsar kraftigt. I ett vanligt fordon skulle du fråga chauffören varför detta plötsliga beteende. Men hur ska det ske i ett fordon utan mänsklig förare? Ska passageraren koppla upp sig till kundtjänst eller fjärrkontrollcenter?  Det skulle inte skala särskilt bra med flera hundra tusen fordon som samtidigt är ute och kör.

XAI är en mycket viktig komponent för att skapa autonoma fordon. Lämpliga och lägliga förklaringar till fordonets beteende kan vara avgörande för att vi användare ska kunna lita på fordonet.

Sammanfattningsvis, vi som åker med autonoma fordon kommer vilja ha förklaringar av olika slag från fordonet. Ett kostnadseffektivt och lättillgängligt system som kan ge dessa förklaringar skulle förkroppsligas av ett XAI som baseras på det AI-system som kör fordonet.

Egen kommentar

Som AI forskare inses lätt nyttan med denna typ av system, tänk om Alexa eller Siri förstod allt jag vill eller undrar! Samtidigt finns ett spännande kunskapsgap mellan vad som är möjligt att visualisera med avseende på information som ligger till grund för ett beslut i ett AI/Machine learning-system och ett system som kan interagera med en användare och som förstår innebörden av grunderna i beslutet.

Källa

[1] Lance, E, Forbes. Explaining Why Explainable AI (XAI) Is Needed For Autonomous Vehicles And Especially Self-Driving Cars. 2021-04-24 Länk

Hur tillförlitlig är Teslas Autopilot?

Förra veckan rapporterade vi om en ny dödsolycka med en Tesla-bil. I väntan på att utredningen av denna ska bli färdig kan vi tipsa om en intressant läsning baserad på en studie om prestandan av förarstödssystem (läs: Autopilot) i tre Tesla-bilar av samma modell och år (Model 3, 2018). Den gjordes förra året av en forskargrupp vid Duke University. 

Följande scenarier var i fokus för studien: 

  • Förarövervakningssystemets prestanda under körning på motorväg.
  • Varning för distraktion vid plötsliga hinder på vägen som exempelvis när två körfält går ihop vid vägarbete.
  • Filhållningshjälp till en distraherad förare när denne oavsiktligt börjar glida ut i en annan fil. 
  • Kontrollöverlämning till en distraherad förare i en S-formad kurva. 

Den förstnämnda testades i verklig trafik, medan de tre övriga testades på en testbana. Det var alltid samma förare som körde, och jämförelsen omfattade en rad olika mått för respektive scenario.  

Resultaten visar gedigen skillnad i prestandan mellan de tre olika bilarna, och mellan de olika scenerierna. Det fanns exemplevis stora variationer i när varningar aktiverades och hur bilarna hanterade respektive scenario. Enligt forskarna själva verkar det som att bilarna presterade bäst i de till synes mest utmanande scenarierna som när föraren ignorerade förfrågningen att ta över kontrollen i en kurva, medan de presterade sämre i enklare scenarier som är bilen höll på att glida ut till närliggande körfält eller när det var hinder på vägen.

Baserat på detta dras slutsatsen att det kan vara vilseledande att tro att tekniken kommer vara lika bra eller bättre än mänskliga förare i enkla situationer, men sämre i svåra situationer. Vad detta beror på exakt är svårt att säga, men en möjlig förklaring skulle kunna vara att Teslas ingenjörer lagt mycket energi att uppnå bra prestanda i svåra situationer, i tron om att systemet enkelt kommer kunna hantera enklare situationer. 

Viktigt i det hela är att notera att det kan ha funnits små skillnader i hård- och mjukvaran i dessa bilar som kan ha lett till viss (icke-kvantifierad) variation. Även yttre faktorer så som ljusskiftningar kan ha bidragit till viss variation. 

Här kan ni läsa hela rapporten. Och kopplat till detta kan ni också passa på att läsa hur Consumer Reports lurat Autopilot på en testbana att tro att det satt en förare i förarsätet. 

Insikter kring tillit från Finland

I en studie från Östra Finlands Universitet har forskare undersökt skillnader i hur passagerare upplever och uppfattar autonoma fordon [1].

Tre olika autonoma fordon användes i testerna: Navyas skyttelbuss, EasyMiles skyttelbuss Ez-10 samt Juto från Sensible 4. Fordonen hade en säkerhetsförare ombord och testerna utfördes under perioden maj-juni 2018 i Helsingfors samt i oktober 2018 i Lappland. 70 deltagare intervjuades kring upplevd tillit, säkerhet och trygghet efter sina åkturer i enlighet med teori om planerat beteende.

Resultaten visade bland annat följande:

  • Tillit, säkerhet och trygghet var påverkande faktorer till positiv inställning gentemot autonoma fordon.
  • Det fanns inga skillnader mellan kön gällande uppfattning av trafiksäkerhet, trygghet och krishanteringsförmåga.
  • Unga passagerare kände sig tryggare än äldre i autonoma fordon.
  • Studenter ansåg sig vara bättre på att hantera kriser än deltagarna som hade ett arbete i form av anställning.
  • Vinterväglag hade ingen signifikant påverkan på passagerarnas inställning gentemot autonoma fordon.

Källa

[1] Launonen, P., Salonen, A., Liimitainen, H., Transportation Research. Icy roads and urban environments. Passenger experiences inautonomous vehicles in Finland. 2020-04 Länk

Jidu Auto satsar stort

Geely och Baidus nybildade samriskbolag Jidu Auto tar sats. Ett par/tre tusen ingenjörer ska anställas de kommande två/tre åren och om tre år planeras första elbilen komma.

Målgruppen är yngre personer och formspråket är tänkt anpassas efter detta; empatiskt robotaktig har nämnts.

Motsvarande 65 miljarder kronor ska plöjas ned i utveckling av företagets smarta bilar de kommande fem åren [1,2].

Källor

[1] Yang, Y., Sun, Y., Munroe, T. Reuters. Baidu’s Jidu Auto to invest $7.7 bln in ‘robot’ smart cars. 2021-04-23 Länk

[2] FinWire, Dagens Industri. Geely och Baidu planerar att miljardinvestera i smarta bilar. 2021-04-23 Länk

EU föreslår AI-regelverk

Under veckan har EU-kommissionen presenterat förslag på nya regler och åtgärder för att göra Europa till ett globalt centrum för tillförlitlig artificiell intelligens (AI) [1]. 

Mer specifikt så har kommissionen föreslagit ett rättsligt ramverk för AI samt en ny plan på hur medlemsländerna och kommissionen bör samarbeta och samordna sina aktiviteter för attsäkerställa att AI införs i samhället på ett säkert sätt och i linje med de grundläggande rättigheterna för människor och företag samtidigt som AI-innovationer och implementering stimuleras. Utöver det är planen att ta fram nya regler för maskiner, där säkerhetsreglerna anpassas för att öka användarnas förtroende för den nya generationen av produkter. 

Förhoppningen är att dessa åtgärder ska leda till att människor kan lita på AI samt bana väg för en etisk användning av AI globalt. 

De föreslagna AI-reglerna är anpassade efter risknivån:

  • Oacceptabel risk: AI-system som anses utgöra ett hot mot människors säkerhet, försörjningsmöjligheter och rättigheter kommer att vara förbjudna. Detta inbegriper AI-system eller tillämpningar som manipulerar mänskligt beteende för att kringgå användarnas fria vilja (t.ex. leksaker som använder röstassistans som uppmuntrar minderåriga till farliga beteenden) och system som länder kan använda för ”social poängsättning”.
  • Hög risk: AI-system som anses utgöra hög risk är exempelvis AI-system som används exempelvis i kritiska infrastrukturer som transport och som kan innebära hot mot människors liv och hälsa. AI-system med hög risk kommer att omfattas av strikta skyldigheter innan de släpps ut på marknaden. Exempel på dessa skyldigheter: Loggning av åtgärder för att säkerställa spårbarheten för resultaten, detaljerad dokumentation om systemet och dess ändamål som lämnas in till myndigheter, tydlig och tillräcklig information till användaren, etc. 
  • Begränsad risk: AI-system med särskilda transparenskrav som exempelvis chattbotar som behöver vara så pass transparanta att användarna blir medvetna om att de interagerar med en maskin.
  • Minimal risk: Lagstiftningsförslaget tillåter fri användning av sådana tillämpningar som AI-stödda videospel eller skräppostfilter. Den absoluta majoriteten av AI-systemen tillhör denna kategori. 

När det gäller styrning föreslår EU-kommissionen att de nationella behöriga marknadskontrollmyndigheterna övervakar de nya reglerna. De föreslår också att det inrättas en europeisk nämnd för AI som främjar genomförandet och utvecklingen av AI-standarder. Ett annat förslag är frivilliga uppförandekoder för sådan AI som inte utgör hög risk samt ”regulatoriska sandlådor” som främjar ansvarsfull innovation.

Europaparlamentet och medlemsländerna kommer att behöva anta EU-kommissionens förslag till en europeisk strategi för AI och för maskinprodukter genom det ordinarie lagstiftningsförfarandet. När förordningarna antagits kommer de att vara direkt tillämpliga i hela EU. 

Egen kommentar

AI är en viktig teknik för framtida transporter generellt sett, och inte minst för automatiserade transporter. Personligen tycker jag att det är väldigt positivt att EU tar i ”taktpinnen” och ser till att AI-system inte skapar fler problem än nytta för samhället. Samtidigt är jag osäker på hur detta kommer att fungera i praktiken. Det återstår väl att se. 

Källor

[1] EU Commission Press release. Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence. 2021-04-21 Länk

Acceptans kring autonoma fordon

Den Europeiska Kommisionens e-tidning har publicerat en artikel kring acceptans av autonoma fordon [1]. Den är i huvudsak baserad på intervjuer med forskningsprojektet Trustonomys projektkoordinator Stefano Bianchi från italienska företaget algoWatt och forskningsprojektet BRAVEs projektkoordinator Ingrid Skogsmo från VTI.

Stefano Bianchi belyser utmaningen med olika målgruppers syn på autonoma fordon och att personer som är tidiga med att ta till sig ny teknik (early adopters) kan uppvisa en för stor tillit till autonoma fordon och ta för stora risker med automatiserade körfunktioner vilket i sin tur leder till olyckor och mindre tillit för autonoma fordon i resten av befolkningen. I Trustonomy-projektet utvecklar de kurser för förare där deltagarna får utbildning kring förmågorna och begränsningarna i autonoma fordon och man hoppas kunna använda sig av det här i framtiden för exempelvis yrkesförare.

Ingrid Skogsmo berättar om BRAVE-projektet där forskare samlat in enkätsvar från 7000 personer från sju länder och som bland annat visat att deltagarna litar mer på mänskliga förare än autonoma fordon. Ungefär 30% av deltagarna konstaterade att hade känt sig otrygga med att gå över vägen om ett autonomt fordon närmade sig. Studien visade också att det viktigaste för övriga trafikanter är att veta vad fordonet ska göra och när det ska göra det. Vidare så diskuteras vikten av regelverk som ett stöd till att argumentera för teknologin i autonoma fordon och skapa större förståelse.

I en annan relevant studie som nyligen publicerats undersökte forskare hur kunskap och erfarenhet av adaptiv farthållare (ACC) och filhållningsstöd (LKA) påverkade tillit till dessa system[2]. Resultaten visade bland annat:

  • Att ägare till fordon med ACC och LKA inte hade bättre kunskap om funktionernas förmågor och begränsningar än personer som inte ägde fordon med ACC och LKA.
  • Att de som ägde fordon med ACC och LKA tenderade att överskatta förmågan hos dessa system.
  • Att icke-ägare med mer kunskap litade mindre på ACC och LKA.
  • Att varken kunskap om eller inställning till ACC och LKA påverkade tillit hos ägare av fordon med dessa system.

Egen kommentar

Det intressanta som framgår av de två sista punkterna från artikeln ovan är att kunskap kring förmågor och begränsningar hos förarstödssystem inte nödvändigtvis påverkar förarans tillit till dessa system, i alla fall inte i den här studien. Forskarna föreslår därför att en översiktlig förklaring att systemen inte är felfria kan vara tillräckligt för att stötta de initiala interaktionerna som användare har med systemen.

En annan observation från min sida är att det verkar som att transparens i form av extern kommunikation skulle kunna vara ett sätt att uppnå acceptans, åtminstone när det gäller direkt interaktion mellan fotgängare och autonoma fordon. Sedan kan utbildning och informationsspridning vara en lösning på ett generellt plan. Gällande det sistnämnda så är det viktigt att ta reda på vad för information och hur mycket information som behövs, vilket delvis adresseras i den sista artikeln som presenterades ovan.

Källor

[1] Burke, F., Horizon Magazine. Do you trust automated cars? If not, you’re not alone. 2021-04-20 Länk

[2] Deguzman, C., & Donmez, B., Accident Analysis and Prevention. Knowledge of and trust in advanced driver assistance systems. 2021-04-18 Länk

Super Cruise-utmaningar

De senaste veckorna har vi rapporterat om uppdateringar av förarstödsytem från Ford och Toyota. En bra och underhållande beskrivning av de många oförutsägbara utmaningar som en förare med marknadsledande GM:s Super Cruise utsätts för publicerades i veckan av tidskriften Car and Driver (fd Sports Cars Illustrated) [1]. Värt sin minut att läsa.

Källa

[1] Dyer, E., Car and Driver. Super Cruise’s Biggest Problem Is Us. 2021-04-17 Länk

PAV: Planning for Autonomous Vehicles

PAV, eller på engelska Planning for Autonomous Vehicles, är ett relativt nytt projekt som syftar till att stimulera upptagningen av eldrivna, delade autonoma fordon i samhället genom att utveckla strategier för grön transport och fysisk planering som tar sådana fordon i beaktandet.

Projektet involverar fyra lokala transportmyndigheter från Storbritannien, Tyskland, Nederländerna och Sverige, samt fyra universitet och fyra nätverksorganisationer. Från Sverige är det Varbergskommun och Högskolan i Halmstad som deltar. Projektet finansieras av Interreg North Sea Region Programme. 

Här kan ni höra mer om det hela, och blir ni ännu mer nyfikna kan ni besöka projektets hemsida här.  

Dödsolycka i en Teslabil

Under helgen inträffade en dödsolycka i staden Spring i Texas där två personer som färdades i en Teslabil miste livet [1]. Bilen kolliderade mot ett träd, fattade eld och brann upp. 

Enligt den lokala polisen fann de ingen i förarsätet medan en av de avlidna satt i passagerarsätet och en i baksätet. Polisen misstänker att det inte fanns någon mänsklig förare bakom ratten när olyckan inträffade och att bilen kördes av Autopilot. 

Nu utreds olyckan av säkerhetsorganisationen NHTSA som för tillfället inte kopplat in haverikommissionen NTSB (som vanligtvis brukar göra sådana här utredningar och som för övrigt uppmanat NHTSA vid flera tillfällen att Teslas förarstödssystem Autopilot är en säkerhetsfara).

Tesla har inte kommenterat fallet.

Källor

[1] The Verge. NHTSA is investigating the driverless Tesla crash that killed two people. 2021-04-19 Länk

Samarbeten kring robotaxi

Volvo Cars och Didi. Volvo Cars kommer att förse Didi med bilar av modellen XC90 som ska nyttjas i Didis tester av robotaxi [1]. Bilarna kommer att vara utrustade med reservsystem för funktioner som styrning och bromsning. Inom ramen för samarbetet kommer företagen tillsammans installera ytterligare mjuk- och hårdvara som krävs för säker autonom körning, inklusive Didis helt nya plattform för autonom körning kallad Gemini. Värt att notera här är att Volvo Cars har redan under 2020 försett Didi med bilar av modellen XC60. 

Honda och AutoX. Honda kommer att förse kinesiska AutoX med bilar [2]. Det rör sig om bilar av typen Accord och Inspire som kommer att användas för tester av robotaxi på allmänna vägar i Kina efter att de utrustats med AutoXs teknik för autonomkörning. Värt att påminna om här är att AutoXs fordon kan testas i Shenzhen (och Kalifornien) utan någon säkerhetsförare närvarande i fordonet. 

Egen kommentar

Både för Volvo Cars och för Honda är detta ett ”enkelt” sätt att komma närmare den kinesiska marknaden. Samtidigt finns det en risk med samarbeten som sådana, och då tänker jag specifikt på dödsolyckan där Ubers självkörande system var installerat i en Volvo XC90 som resulterade i en del negativ mediauppmärksamhet för Volvo Cars trots att Volvo Cars inte hade något med olyckan att göra.

Källor

[1] Volvo Cars Global Newsroom. Volvo Cars teams up with world’s leading mobility technology platform DiDi for self-driving test fleet. 2021-04-19 Länk

[2] CX Tech. Honda Partners with AutoX to Develop Self-Driving Tech For China’s Road and Traffic. 2021-04-19 Länk

utgiven av RISE Research Institutes of Sweden