Kategoriarkiv: Samhällspåverkan

Är Teslas Autopilot säkrare?

Elon Musk har ju ganska irriterat sagt att ”om någon bara brydde sig om att räkna skulle de se att av de över 1 miljon dödsolyckorna i trafiken världen över varje år så skulle ungefär hälften ha klarat sig om de haft Teslas Autopilot”.

Nu har faktiskt Washington Post tittat in i matematiken och kommit fram till att det inte är så enkelt [1]. Visserligen har Teslabilarna kört över 200 miljoner km i Autopilot-mod, men jämfört med hur långt världens bilpark faktiskt kör så är även det ett för litet urval för att sägas vara statistiskt säkerställt.

Viktigare är att dessa 200 miljoner km inte kan sägas vara representativa: dels är Teslaförarna knappast representativa för alla världens bilförare, dels så är förhållandena då Autopilot ska användas inte heller representativa för de många olyckor sker: Tesla själva skriver att funktionen Traffic-Aware Cruise Control har problem när vägen har skarpa krökar, sikten är dålig t.ex. pga. regn, dimma eller snö, och också när det är skarpt ljus som interfererar med kameran.

Källor:

[1] Mark Palko: Are you safer in a Tesla on autopilot, as Elon Musk says? Let’s do the math. The Washington Post, 2016-10-07 Länk

Volvo kommer med V2V-kommunikation för halkvarning

Volvo Cars lanserar bil-till-bil-kommunkation för alla bilarna i 90-serien [1]. Lösningen, som utvecklats ihop med Ericsson, kan skicka och ta emot varningar om halka och andra faror på vägen.

Halkvarningsfunktionen bygger på uppskattningar av vägfriktionen från bilens styr- broms- och drivsystem, medan varning för andra faror sker när varningsblinkers är påslagna.

Källor:

[1] Johan Dillen: Volvo to debut car-to-car communication this year, Automotive News Europe 2016-10-04 Länk

Uber friskriver sig från ansvar vid olyckor

De som vill testa Ubers självkörande bilar i Pittsburgh måste skriva under att Uber friskriver sig från allt ansvar vid en eventuell olycka skriver Gizmodo [1]:

“I acknowledge that some or all of the [autonomous vehicles] in which I ride are in a development phase, are experimental in nature, and that riding in an [autonomous vehicle] may involve the potential for death, serious injury, and/or property loss.”

Uber är uppenbarligen oroliga för att råka ut för något liknande Tesla-olyckorna. Deras VD Travis Kalanick säger till Bloomberg Businessweek att “Nobody has set up software that can reliably drive a car safely without a human.”

Källor:

[1] Michael Nunez: Uber’s Self-Driving Car Passengers Were Signing Their Lives Away, Gizmodo 2016-09-26 Länk

Uppdaterad policy i USA

Under veckan publicerade den amerikanska säkerhetsorganisationen NHTSA en uppdaterad version av policyn om automatiserad körning som kom till i slutet av 2013 [1, 2]. En nyhet är att organisationen väljer att skrota sin egen skala för klassificering av automationsgrad i fordon. Framöver kommer organisationen att tillämpa klassificeringsskalan utvecklad av Society of Automotive Engineers (SAE).

Policyn går ut på att fordonstillverkarna bör bevisa för NHTSA att deras fordon är säkra på alla sätt och vis innan de får framföras på allmänna vägar. Säkerhetsanalysen som NHTSA kommer att utgå ifrån omfatta följande 15 områden:

  • Datadelning. Fordonstillverkare bör lagra information från sensorer och dela den med myndigheter som kan använda informationen för att rekonstruera vad som gick fel i en krasch eller vid exempelvis systemhaveri.
  • Sekretess. Fordonsägare bör ha en klar uppfattning om vilken typ av data som samlas av fordonen. De bör också kunna avvisa insamling av personlig information som biometri eller förarens beteende.
  • Systemsäkerhet. Fordonen måste vara designade att hantera mjukvarufel, nära incidenter, sensorproblem och dylikt på ett säkert sätt. Fordonstillverkarna behöver bevisa att deras fordon kan fungera säkert även när tekniska problem uppstår.
  • Datasäkerhet. Fordonen ska vara designade att kunna stå emot cyberattacker. Fordonstillverkarna bör registrera alla programmeringsbeslut och tester kring datasäkerhet och dela denna information med andra i branschen.
  • Interaktion. Fordonstillverkarna måste visa att deras fordon kan på ett säkert sätt växla mellan autonom och mänsklig kontroll. Mänskliga förare ska enkelt kunna ta reda på när exempelvis automatiserad körning inte är tillgänglig. Fordonstillverkare bör också överväga olika sätt att kommunicera till fotgängare och andra trafikanter när fordonet är i autonomt läge. Gränssnitten i helt autonoma fordon bör utformas för personer med funktionshinder.
  • Krocksäkerhet. Fordonen måste uppfylla NHTSAs ordinarie standarder för krocksäkerhet, eller vara byggda att på bäst sätt skydda de åkande vid en krock. Om fordonet kraschar bör kraschskadan inte vara annorlunda jämfört med skadan som skulle uppstått vid krasch av ett manuellt styrt fordon av samma typ.
  • Konsumentupplysning. Fordonstillverkarna bör träna sina säljare och annan personal i hur automatiserade funktioner fungerar så att de kan utbilda återförsäljare och distributörer. Fordonstillverkarna och säljare bör också förse konsumenterna med utbildning om möjligheter och begränsningar med automatiserade fordon och nödvändiga åtgärder.
  • Certifiering. Mjukvaruuppdateringar och nya automatiserade funktioner måste redovisas för NHTSA.
  • Säkerhet efter krock. Fordonstillverkare bör visa att deras fordon är säkra att använda efter en krasch. Till exempel bör ett fordon inte kunna gå in i självkörande läge om inte skadade sensorer och kritiska säkerhetsstyrsystem har reparerats.
  • Lagstiftning och praxis. Fordonen ska följa olika statliga och lokala lagar och praxis som gäller för förare. Till exempel måste fordonen kunna känna igen olika hastighetsgränser i olika städer och stater, och om en stat tillåter U-svängar eller högersvängar vid rödljus. För att undvika en krasch kan fordonen bryta mot reglerna om det sker på ett säkert sätt.
  • Etiska överväganden. Många beslut som mänskliga förare fattar i trafiken involverar etiska överväganden. Automatiserade fordon kommer förmodligen också att vara programmerade att fatta beslut som involverar etiska överväganden. Hur detta hanteras bör tydligt redovisas för NHTSA.
  • Manual. Fordonstillverkarna bör beskriva på ett tydligt sätt var, när och under vilka förutsättningar som en automatiserad funktion fungerar. Fordonstillverkarna måste bevisa att deras fordon har testats och godkänts för att uppfylla dessa beskrivningar.
  • Detektion och respons. Fordonstillverkarna måste visa att fordonen programmerats att hantera normala trafiksituationer som filbyte och trafiksignaler. De måste också visa att deras fordon kan upptäcka och undvika överraskningssituationer.
  • Fall-back. Fordonen ska kunna växla körläge på ett säkert när det uppstår ett tekniskt fel. Vid kontrollöverlämningen från fordonet till mänsklig förare bör systemet ta hänsyn till förarens tillstånd och avgöra om föraren är kapabel att ta över manövreringskontrollen på ett säkert sätt.
  • Validering. Fordonstillverkarna måste utveckla test- och valideringsmetoder som kan hantera det breda utbudet av teknik som används i automatiserade fordon. Deras tester bör omfatta simulering, testbanor och verklig trafik.

Egen kommentar

Policyn har bemötts med blandade känslor bland de berörda. De flesta är i alla fall glada att det är en policy och inte en lagstiftning som det handlar om.

En som välsignat policyn och säkra automatiserade fordon är president Barack Obama. Här kan ni läsa hans yttrande i dess helhet. Där skriver han bl.a. följande: Safer, more accessible driving. Less congested, less polluted roads. That’s what harnessing technology for good can look like. But we have to get it right.

Källor

[1] NHTSA. Federal Automated Vehicles Policy. 2016-09 Länk

[2] Kang, C., The New York Times. The 15-Point Federal Checklist for Self-Driving Cars. 2016-09-20 Länk

Blir produktiviteten bättre?

En grupp forskare vid Michigan University har utfört en studie som visar att automatiserade fordon inte nödvändigtvis kommer att öka produktiviteten hos vanliga amerikanska pendlare [1]. En slutsats är att produktiviteten blir opåverkad hos ca 62 % av amerikanerna.

Av de tillfrågade påstod många att de inte skulle åka i ett självkörande fordon, att de skulle fokusera på trafiken eller att de skulle uppleva åksjuka. Många har också uttryckt oro över att automatiserad körning skulle möjliggöra ovanliga sittpositioner, något som dagens passiva säkerhetssystem som sittbälten och krockkuddar inte kan hantera.

Något annat som måste tas i beaktande är att en genomsnittlig resa i lätta fordon tar ca 19 minuter, vilket är för kort tid för att uppnå produktiv verksamhet.

Källor

[1] Sivak, M., Schoettle, B., The University of Michigan Sustainable Worldwide Transportation. Would Self-Driving Vehicles Increase Occupant Productivity? 2016-09 Länk

Teslaolyckor och Master Plan

I juli kom avslöjandet om den första dödsolyckan involverande en ”självkörande” bil. Olyckan inträffade i maj i Florida när en Tesla Model S med aktiverad Autopilot krockade mot en lastbil (se mer om olyckan i vårt nyhetsbrev samt här). Detta har skapat en stor debatt och olyckan utreds nu av säkerhetsorganisationen NHTSA som bland annat bett företaget att redogöra för hur många gånger som systemet uppmanat föraren att ta över kontrollen. Dessutom har Teslas VD Ellon Musk blivit kallad att göra en redogörelse av olycksfallet inför den amerikanska senatens utskott om handel, vetenskap och transport [1].

Under juli inträffade två andra olyckor, en i Pennsylvania och en i Montana, där man misstänkte att Autopilot var aktiverad. I det första fallet redogjorde Tesla med hjälp av bilens loggdata att Autopilot inte var påslagen och att systemet skulle ha förhindrat olyckan om den varit aktiverad [1]. I Montana-fallet var Autopilot påslagen och uppmanade föraren att ta över kontrollen men förarreaktionen uteblev [2]. Nyligen inträffade ytterligare en olycka, den här gången i Kina. Liksom i Montana-fallet var Autopilot aktiverad, men föraren missade dess uppmaningar att hålla händerna på ratten [3]. Enligt föraren har Teslas personal vilselett honom och fått honom att tro att det var en självkörande bil som han köpt. Dessa påståenden avslås av Tesla som understryker att alla kunder informeras på samma sätt om att det handlar om ett förarstödsystem.

Som en följd av dessa och liknande olyckor har bland annat tidskriften Consumer Reports uppmanat Tesla att stänga av självstyrningsfunktionen i sin Autopilot och att byta funktionens namn eftersom det ger en felaktig bild av att Model S-bilen är kapabel att köra själv [4].

En annan nyhet är att Mobileye, företaget som levererar EyeQ videosystem för detektering och igenkänning av omgivningen till Tesla och flera andra fordonstillverkare, inte kommer förlänga avtalet med Tesla när det nuvarande kontraktet gått ut [5]. Det är oklart om initiativet tagits av Tesla eller Mobileye, men enligt Musk kommer inte detta att påverka Teslas planer inom området.

Under sommaren kom också del två av Musks ”master plan” [6]. I den redogör han vad företaget kommer att fokusera på framöver. När det gäller bilar skriver han följande:

  • Tesla kommer att ta en större del av konsumentmarknaden med hjälp av Model 3, en framtida kompakt SUV och en ny typ av pickup.
  • Tesla planerar att lansera lastbilar och bussar. Dessa är under utveckling och kan komma att visas upp redan under nästa år.
  • Helt självkörande fordon är en självklarhet och de ska vara 10 gånger säkrare än manuella fordon. Vägen dit är att bilarna fortsätter lära sig hur de ska köra. Det kommer dock krävas 10 miljarder kilometers körning innan Tesla kommer sluta referera till Autopilot som en beta-version.
  • När helt självkörande bilar blivit verklighet kommer Tesla-förarna att kunna anropa sin bil från avstånd samt dela sin bil med andra via en mobilapp. På det viset kan Tesla-bilar agera taxibilar när de inte används av sina ägare.
  • I städer där efterfrågan är stor kommer Tesla att ha en egen taxiflotta.

Egen kommentar

Det har minst sagt varit en händelserik sommar för Tesla. Just nu är det svårt att säga hur dessa olyckor kommer att påverka Tesla och deras arbete. Personligen tror jag att dödsolyckan kan komma att accelerera utvecklingen av automatiserad körning, både hos Tesla och hos andra företag. Många befarar att dödsolyckan kommer påverka NHTSAs policy om automatiserade fordon som håller på att uppdateras. Det återstår att se vad utgången blir men NHTSAs representanter har påpekat att deras positiva inställning till automatiserad körning inte påverkas av enstaka händelser.

Källor

[1] Shepardson, D. Automotive News. Tesla is asked to brief U.S. Senate panel on fatal Florida crash. 2016-07-14 Länk

[2] Lambert, F., Electrek. Tesla responds to ‘cover-up’ claims in ‘Montana Autopilot Accident’, offers more details on investigation. 2016-07-23 Länk

[3] Lambert, F., Electrek. Tesla driver in Autopilot accident was using his phone, says Tesla told him it was ‘self-driving’. 2016-08-10 Länk

[4] Consumer Reports. Tesla’s Autopilot: Too Much Autonomy Too Soon. 2016-07-14 Länk

[5] MIT Technology Review. Tesla Is Losing the Supplier of Autopilot’s Brain. 2016-07-27 Länk

[6] Tesla. Master Plan, Part Deux. 2016-07-20 Länk

Kommentarer om Tesla-olyckan

Vi har fått några kommentarer angående Tesla-olyckan vi skrev om i förra nyhetsbrevet:

”En liten rättelse till vad som skett i dödsolyckan med Teslas autopilot: lastbilen hade ett vitt, högtgående släp som färdades vinkelrätt mot Teslan. Kameran upptäckte inte släpet i motljus, däremot gjorde radarn det. För övrigt ser radar inte färger. Skälet till att bildatorn inte autobromsade var att detektionen kom från högt upp. Enligt Elon Musk tolkade sensorfusionsalgoritmen detta scenario som att detektionen kom från en högtstående vägskylt som man dessvärre sållade bort. Detta visar på svårigheten att verifiera för alla möjliga potentiellt farliga scenarion i AD sammanhang.”

”Olyckan skulle inte hänt med Vehicle-to-Vehicle-kommunikation: Teslas förklaring är kameran misslyckades med att detektera lastbilen och radarn detekterade lastbilen som en skylt. Ett tydligt scenario där sensorerna misslyckas. Med V2V skulle Teslabilen få veta tydligt att det kommer en lastbil och den kan förbereda sig (minst 300 meter innan korsningen, absolut tillräckligt för att agera).  Detta är det enklaste som V2V kan möjliggöra. I framtida V2V kommer lastbilen att inte bara skicka positionen utan också avsikten.”

”Tragiskt så klart. Samtidigt mycket tankeväckande. Folk från industrisidan och politiker är så positiva till aut. fordon. Men jag och många av mina kollegor från väghållar- och trafiksidan är ofta inte lika positiva. Det finns så mycket differenser och olikheter i väg-/gatu- och trafikmiljön som försvårar för aut.fordon på ett sätt som är lättare att se om man själv jobbar på väghållningssidan. Till exempel plötsliga väder- och ljusfenomen.”

Tack för kommentarerna!

Nyhetsbrev 255: Dödsolycka med Teslas Autopilot

Så har det som man befarade nu hänt, en dödsolycka med en självkörande bil där inte systemet kunde upptäcka ett hinder [1].

Det var i maj som en Tesla Model S i autopilot-mod körde rätt in i en lastbils-trailer på väg 27 utanför Williston, Florida, när lastbilen svängde vänster över Tesla-bilens körfält.

Tesla-olycka

Orsaken ska enligt Tesla ha varit att radarn inte kunde se den vita lastbilen mot den ljusa himlen och bromsarna ansattes inte [2]. Uppenbarligen uppmärksammade inte heller föraren lastbilen. Enligt Tesla är man tydlig med att föraren hela tiden ska ha händerna på ratten och övervaka körningen, även i autopilot-mod.

Amerikanska trafiksäkerhetsmyndigheten NHTSA ska nu göra sin första haveriutredning av en olycka med en självkörande bil.

Föraren av Tesla-bilen var en stor entusiast som tidigare hade lagt ut filmer på Youtube där han visar hur Autopilot fungerar och också vid något tillfälle räddat honom från en olycka.

Olyckan har gett mycket diskussioner om tekniken är tillräckligt mogen för att användas på allmänna vägar av vanliga kunder [3]. Även amerikanska advokater vädrar morgonluft.

Egen kommentar

Det är förstås mycket tragiskt med en sådan här olycka. Man kan  fundera på om den hade mildrats om trailern haft sidounderkörningsskydd som i Europa. Man kan också fundera över vikten att förmedla rätt information till föraren både innan man köper fordonet samt under körningen (se artikeln om Mercedes i förra nyhetsbrevet).

Förhoppningsvis leder olyckan ändå till en viss tillnyktring av den värsta hajpen kring den nya teknologin, så att den får utvecklas i den takt och till den nivå av automatisering som visar sig lämplig. Många aktörer verkar ha intecknat i förväg att allt kommer att gå bra.

Källor

[1] Dana Hull, Jeff Plungis, David Welch: Regulators Open Investigation Into Fatal Crash in Tesla on Autopilot, Bloomberg 2016-06-30 Länk

[2] Tesla Motors: A Tragic Loss, 2016-06-30 Länk

[3] Håkan Matson: Dags att dra i nödbromsen, Dagens Industri 2016-07-01 Betallänk

Datainspektionen kritisk mot lagförslaget

I november förra året tillsatte regeringen en utredning om automatiserade fordon, och i våras blev delen av utredningen som berör testverksamheten klar. Utredningen föreslog en lagändring och ett lagförslag för att tillåta automatiserade testfordon på allmänna svenska vägar från maj 2017 togs fram. Lagförslaget har skickats ut på remiss till ungefär 25 organisationer.

Förslaget har nu granskats av Datainspektionen som slagit fast att utredningen inte utrett tillräckligt vilka uppgifter från sensorer som exempelvis mikrofoner, kameror, och radar som är personuppgifter och hur dessa uppgifter ska hanteras och skyddas. Enligt svensk grundlag måste den här typen av lagförslag innehålla en noggrann analys som visar att det intrång som sker på den enskildes personliga integritet måste vara befogat och inte är större än nödvändigt. Detta är något som är bristfälligt i det aktuella lagförslaget och som gör att Datainspektionen säger nej till förslaget.

Här kan ni läsa Datainspektionens yttrande till Näringsdepartementet i dess helhet.

Källor

[1] Datainspektionen. Nej till förslag om självkörande bilar. 2016-06-27 Länk

Moraliskt dilemma

En grupp forskare från tre olika universitet har publicerat en ny studie som heter The Social Dilemma of Autonomous Vehicles och som diskuterar etik och moral kring automatiserad körning [1].

Studien är baserad på en onlineundersökning där 2000 amerikaner blev tillfrågade hur de skulle vilja att självkörande fordon beter sig när de ställs inför moraliska beslut som kan leda till döden. Deltagarna fick ett antal trafiksituationer presenterade för sig där de fick välja en utgång som de tyckte var lämpligast. De fick exempelvis välja mellan att fortsätta köra rakt fram och döda ett visst antal fotgängare, eller svänga till intilliggande körfält och döda en större grupp djur eller människor. Detta är alltså att klassiskt etikproblem (känt som ”the trolley problem”) där deltagaren tvingas att välja mellan att rädda ett eller flera liv.

Resultaten tyder på att deltagarna hade velat att självförande fordon försöker minimera antalet dödade i trafiken även om det utsätter fordonens egna passagerare för fara. De hade till och med kunnat acceptera att självkörande fordon förstör sig själva för att undvika att skada fotgängare eller andra förare. Det blev dock ett motsägelsefullt svar när de blev tillfrågade vilken typ av fordon som de hade velat köpa : de hade velat köpa fordon som sätter deras egna och passagerarnas säkerhet i första plan.

Här kan ni kolla hur ni hade fattat dessa svåra beslut!

Källor

[1] Warren, T., The Verge. How do you teach an autonomous car when to hurt its passengers? 2016-06-23 Länk