Våra liv är fyllda av förklaringar. Vi går till doktorn för att få vår onda axel undersökt. Doktorn säger till dig att vila armen och undvik tunga lyft. Dessutom får du ett recept på ett läkemedel. Du undrar direkt, varför behöver jag ta medicin? Du vill också få reda på vilken diagnos doktorn ställt på min axel? Och hur lång tid kommer det ta innan den blir bra? Du frågar efter mängder av förklaringar.
Legendaren Lance Eliot har skrivit en artikel om varför förklarande AI (Explainable AI, XAI) behövs för autonoma fordon [1].
Utmaningen ligger i att ställa rätt fråga och att den som förklarar förstår på vilken nivå förklaringen ska ges. Inte sällan sker förklaringen under en dialog allteftersom mer och mer information faller på plats hos den som ställer frågor.
När människor interagerar sker denna dialog naturligt. Men vad händer om vi interagerar med en maskin, ett system eller ett autonomt fordon? Inga av dagens AI-baserade system har tillräcklig förmåga att fullständigt känna igen en människas beteende eller tal och därmed får AI-systemet problem att kunna engageras i en naturlig dialog med sina användare.
Tänk dig situationen när du åker i ett autonomt fordon som plötsligt tar en annan rutt än den vanliga eller att fordonet du färdas i plötsligt bromsar kraftigt. I ett vanligt fordon skulle du fråga chauffören varför detta plötsliga beteende. Men hur ska det ske i ett fordon utan mänsklig förare? Ska passageraren koppla upp sig till kundtjänst eller fjärrkontrollcenter? Det skulle inte skala särskilt bra med flera hundra tusen fordon som samtidigt är ute och kör.
XAI är en mycket viktig komponent för att skapa autonoma fordon. Lämpliga och lägliga förklaringar till fordonets beteende kan vara avgörande för att vi användare ska kunna lita på fordonet.
Sammanfattningsvis, vi som åker med autonoma fordon kommer vilja ha förklaringar av olika slag från fordonet. Ett kostnadseffektivt och lättillgängligt system som kan ge dessa förklaringar skulle förkroppsligas av ett XAI som baseras på det AI-system som kör fordonet.
Egen kommentar
Som AI forskare inses lätt nyttan med denna typ av system, tänk om Alexa eller Siri förstod allt jag vill eller undrar! Samtidigt finns ett spännande kunskapsgap mellan vad som är möjligt att visualisera med avseende på information som ligger till grund för ett beslut i ett AI/Machine learning-system och ett system som kan interagera med en användare och som förstår innebörden av grunderna i beslutet.
Källa
[1] Lance, E, Forbes. Explaining Why Explainable AI (XAI) Is Needed For Autonomous Vehicles And Especially Self-Driving Cars. 2021-04-24 Länk