Kategoriarkiv: Funktionell säkerhet

Mer jordnära etiska problem

I en notis om vad som hänt under sommaren skrev vi om de etiska riktlinjerna som den tyska regeringen gett ut. Bland annat skriver man:

”Hur mycket beroende av tekniskt komplexa system – som i framtiden kommer att baseras på artificiell intelligens, eventuellt med maskininlärningsförmåga – är vi villiga att acceptera, för att i gengäld få mer säkerhet, rörlighet och bekvämlighet? Vilka försiktighetsåtgärder måste vidtas för att säkerställa kontrollerbarhet, öppenhet och datautonomi? Vilka tekniska utvecklingsriktlinjer krävs för att inte sudda ut konturerna av ett mänskligt samhälle som ställer individer, deras frihet till utveckling, deras fysiska och intellektuella integritet och deras rätt till social respekt i hjärtat av sin rättsordning?”

Det finns mycket skrivet om etik i samband med självkörande fordon, men oftast hamnar man i ”the trolley problem” om fordonen måste programmeras att välja vilka de ska köra på. Men OS News kommenterar de tyska riktlinjerna med några nya, mer jordnära perspektiv [1]:

”Utöver den etik som är relaterad till liv och död finns det dock också enklare, mer banala etiska överväganden. Till exempel om en biltillverkare för att öka vinsten gör ett avtal med McDonalds och anpassar sitt självkörande bilprogram bara lite grann, så att fordonet kör kunderna förbi McDonalds lite oftare, även om det ökar den totala restiden. Vad händer om en biltillverkare gör liknande avtal med stora affärskedjor så att mindre kedjor eller fristående butiker inte ens dyker upp när du säger ”ta mig till närmaste plats som säljer X”? Är det något vi borde tillåta?

Ska vi över huvud taget tillåta programvara för självkörande bilar att vara stängd? Bilar är ”lagliga mordvapen”, och litar vi verkligen på bilfabrikanterna att inte ”gena” när de utvecklar självkörande bilars programvara, för att möta deadlines, på grund av dålig ledning eller underbetalade utvecklare? Ska inte all denna utveckling och all denna kod vara öppen för världen att se?”

Källor

[1] Thom Holwerda: Germany publishes ethical guidelines for self-driving cars, OS News 2017-08-26 Länk

Teslas Autopilots design bidrog till olycka

Amerikanska haverikommissionen National Traffic Safety Board NTSB har utrett olyckan med en Teslabil i Autopilot-mod i maj 2016, och kommit fram till att systemets design bidragit till olyckan [1]. Detta då systemet i alltför hög grad tillåtit felanvändning, dvs. att föraren kunde köra i autopilotmod i hög fart på en allmän väg utan att ha uppsikt, vilket Tesla i sina rekommendationer sagt att man skulle inte skulle göra. Vid olyckan fanns det10 sekunder att reagera vilket alltså varken föraren eller Autpilotsystemet gjorde.

Enligt NTSB är det inte tillräckligt att bara kontrollera att föraren rör ratten. Sedan olyckan har Tesla uppdaterat mjukvaran så att det inte går att helt släppa uppmärksamheten.

Egen kommentar

NHTSA konstaterade i januari 2017 att det inte var något fel på bilen eller Autopilotsystemet och lade ner utredningen. Men nu har alltså NTSB kommit till en delvis annan slutsats.

Källor

[1] David Shephardson: ’System safeguards’ lacking in Tesla crash on autopilot: NTSB, 2017-09-12 Länk

Tesla får sänkt säkerhetsbetyg

Consumer Reports sänker säkerhetsbetyget för Teslas bilar [1]. Anledningen sägs vara för att de misslyckats med att installera en nödbromsfunktion som de lovade nya Teslaägare skulle vara en del av standardutrustningen.

Tidningen, som årligen betygsätter fordon som säljs i USA, säger att Tesla Model S förlorat sin topprankning i kategorin ultra-lyxiga bilar.

Efter att ha fått beskedet meddelade Tesla att de börjat aktivera den automatiska nödbromsfunktionen redan under veckan genom en mjukvaruuppdatering.

Källa

[1] Vuong, J.,First Shift: Consumer Reports cuts Tesla raitings. 2017-05-09  Länk

Tesla-undersökningen läggs ner

Amerikanska myndigheter lägger ner undersökningen av dödsolyckan med en Teslabil i Autopilot-läge i maj som vi skrivit om tidigare [1]. Man har inte kunnat hitta några bevis för att det funnits några fel på bilen eller på Autopilot-systemet utan att ansvaret helt varit den omkomne förarens.

Samtidigt säger NHTSA att förarna kan bli förvirrade om systemet eller föraren är i kontroll i vissa situationer. Tesla har också släppt uppdateringar av Autopilot med bl.a. nya begränsningar av körning utan att ha händerna på ratten, vilket Elon Musk sagt troligen skulle ha kunnat förhindra olyckan.

Källor

[1] David Shepardson: U.S. regulator closes Tesla death probe; no evidence of defects, Automotive News 2017-01-19 Länk

BMW tar ansvar för sina självkörande bilar

BMW följer nu i Volvos och Googles fotspår och går ut med att de tar fullt ansvar om deras självkörande bilar krockar [1].

Enligt Oliver Poguntke, projektledare för automatiserad körning på BMW, är det nödvändigt att fordonstillverkaren tar ansvaret på sig när fordonen är helt autonoma.

Källa

Maclean, A: BMW takes responsibility for driverless cars, Drive, 2016-12-08 Länk

Villfarelser med självkörande bilar

Journalisten Colin Sowman skriver i en artikel i ITS International [1] att självkörande bilar kommer att öka trängseln och öka riskerna för intrång och terrordåd, samtidigt som fördelarna med ökad trafiksäkerhet snabbare och billigare kan uppnås med förarstödsystem, ADAS.

Dessutom är tekniken långt ifrån praktiskt genomförbar, skriver han. Mänskliga förare kan hantera söndriga trafikljus, hål i vägen, översvämmade vägar, skymda hastighetsskyltar etc, vilket automatiserade system har svårt att göra. Dessa bygger på högdefinitionskartor som måste hållas kontinuerligt uppdaterade. Det kommer alltså att dröja lång tid innan alla bilar är automatiserade och under tiden kommer det fortfarande finnas mänskliga förare som tänjer på gränserna.

Sowman menar också att om automatiserade fordon uppnår det som de avser, att göra det möjligt för förarna att göra annat under resan, så blir resan bekvämare och då kan trafiken öka med ökande trängsel men också ökande avgasutsläpp som följd.

Vad gäller att ge mobilitet åt funktionshindrade så menar Sowman att många av dessa ändå behöver hjälp för att komma i och ur bilen, vilket lättare åstadkommes med andra mobilitetslösningar.

Slutligen beskriver han riskerna med att obehöriga kan hacka sig in i bilarna och på olika sätt ställa till det i trafiken. En ytterligare säkerhetsrisk är att terrorister skulle kunna skicka iväg självkörande bilar med bomber åt olika håll utan att riskera sig själva.

Egen kommentar

Synpunkterna som Sowman för fram är inte nya men han sätter dem i ett sammanhang.

Källor

[1]  Colin Sowman: Debunking the driverless delusion, ITS International September/Octpber 2916 www.itsinternational.com

ADAS-systemen måste bli bättre

Dagens ADAS (Advanced Driver Assistance Systems) som anti-sladdsystem, nödbroms, filvarning och adaptiv farthållare har minskat antalet olyckor på vägarna, med i vissa fall upp mot 40%. Men de måste bli bättre innan de kan användas i samband med automatiserade fordon, skriver Automotive News [1].

Dels beror sensorernas förmåga att uppfatta omgivningen mycket med vädret vilket gör att systemen kanske stänger av sig själva när de egentligen behövs som bäst, dels är många gånger användargränssnittet dåligt, vilket gör att många förare helt enkelt stänger av systemen för att de blir irriterade på dem.

Ett annat problem är att väginfrastrukturen i form av linjer etc. ofta är dålig, vilket vi tidigare skrivit om.

För automatiserade fordon kommer det att krävas en helt ny nivå av funktionalitet och säkerhetsredundans i systemen, säger Dean McConnell på Continental Automotive Systems.

Källor

[1] Dave Guilford: Safety technology still needs work – Systems are helping, but aren’t ready for autonomous age, Automotive News 2016-08-29 Länk

Teslaolyckor och Master Plan

I juli kom avslöjandet om den första dödsolyckan involverande en ”självkörande” bil. Olyckan inträffade i maj i Florida när en Tesla Model S med aktiverad Autopilot krockade mot en lastbil (se mer om olyckan i vårt nyhetsbrev samt här). Detta har skapat en stor debatt och olyckan utreds nu av säkerhetsorganisationen NHTSA som bland annat bett företaget att redogöra för hur många gånger som systemet uppmanat föraren att ta över kontrollen. Dessutom har Teslas VD Ellon Musk blivit kallad att göra en redogörelse av olycksfallet inför den amerikanska senatens utskott om handel, vetenskap och transport [1].

Under juli inträffade två andra olyckor, en i Pennsylvania och en i Montana, där man misstänkte att Autopilot var aktiverad. I det första fallet redogjorde Tesla med hjälp av bilens loggdata att Autopilot inte var påslagen och att systemet skulle ha förhindrat olyckan om den varit aktiverad [1]. I Montana-fallet var Autopilot påslagen och uppmanade föraren att ta över kontrollen men förarreaktionen uteblev [2]. Nyligen inträffade ytterligare en olycka, den här gången i Kina. Liksom i Montana-fallet var Autopilot aktiverad, men föraren missade dess uppmaningar att hålla händerna på ratten [3]. Enligt föraren har Teslas personal vilselett honom och fått honom att tro att det var en självkörande bil som han köpt. Dessa påståenden avslås av Tesla som understryker att alla kunder informeras på samma sätt om att det handlar om ett förarstödsystem.

Som en följd av dessa och liknande olyckor har bland annat tidskriften Consumer Reports uppmanat Tesla att stänga av självstyrningsfunktionen i sin Autopilot och att byta funktionens namn eftersom det ger en felaktig bild av att Model S-bilen är kapabel att köra själv [4].

En annan nyhet är att Mobileye, företaget som levererar EyeQ videosystem för detektering och igenkänning av omgivningen till Tesla och flera andra fordonstillverkare, inte kommer förlänga avtalet med Tesla när det nuvarande kontraktet gått ut [5]. Det är oklart om initiativet tagits av Tesla eller Mobileye, men enligt Musk kommer inte detta att påverka Teslas planer inom området.

Under sommaren kom också del två av Musks ”master plan” [6]. I den redogör han vad företaget kommer att fokusera på framöver. När det gäller bilar skriver han följande:

  • Tesla kommer att ta en större del av konsumentmarknaden med hjälp av Model 3, en framtida kompakt SUV och en ny typ av pickup.
  • Tesla planerar att lansera lastbilar och bussar. Dessa är under utveckling och kan komma att visas upp redan under nästa år.
  • Helt självkörande fordon är en självklarhet och de ska vara 10 gånger säkrare än manuella fordon. Vägen dit är att bilarna fortsätter lära sig hur de ska köra. Det kommer dock krävas 10 miljarder kilometers körning innan Tesla kommer sluta referera till Autopilot som en beta-version.
  • När helt självkörande bilar blivit verklighet kommer Tesla-förarna att kunna anropa sin bil från avstånd samt dela sin bil med andra via en mobilapp. På det viset kan Tesla-bilar agera taxibilar när de inte används av sina ägare.
  • I städer där efterfrågan är stor kommer Tesla att ha en egen taxiflotta.

Egen kommentar

Det har minst sagt varit en händelserik sommar för Tesla. Just nu är det svårt att säga hur dessa olyckor kommer att påverka Tesla och deras arbete. Personligen tror jag att dödsolyckan kan komma att accelerera utvecklingen av automatiserad körning, både hos Tesla och hos andra företag. Många befarar att dödsolyckan kommer påverka NHTSAs policy om automatiserade fordon som håller på att uppdateras. Det återstår att se vad utgången blir men NHTSAs representanter har påpekat att deras positiva inställning till automatiserad körning inte påverkas av enstaka händelser.

Källor

[1] Shepardson, D. Automotive News. Tesla is asked to brief U.S. Senate panel on fatal Florida crash. 2016-07-14 Länk

[2] Lambert, F., Electrek. Tesla responds to ‘cover-up’ claims in ‘Montana Autopilot Accident’, offers more details on investigation. 2016-07-23 Länk

[3] Lambert, F., Electrek. Tesla driver in Autopilot accident was using his phone, says Tesla told him it was ‘self-driving’. 2016-08-10 Länk

[4] Consumer Reports. Tesla’s Autopilot: Too Much Autonomy Too Soon. 2016-07-14 Länk

[5] MIT Technology Review. Tesla Is Losing the Supplier of Autopilot’s Brain. 2016-07-27 Länk

[6] Tesla. Master Plan, Part Deux. 2016-07-20 Länk

Granskning av federala bestämmelser klar

Det amerikanska departementet för transport (USDOT) har utfört en omfattande granskning av Federal Motor Vehicle Safety Standards (FMVSS) med målet att se hur automatiserade fordon passar in i det nuvarande federala regelverket för certifiering av fordon [1].

Sammanfattningsvis kan man säga att granskningen har identifierat standarder som kräver ytterligare granskning, både för att se till att befintliga förordningar inte i onödan hämmar innovation och för att säkerställa att automatiserade fordon är säkra.

Vidare konstaterar granskningen att det finns få hinder för automatiserade fordon så länge de inte avsevärt avviker från konventionella fordon designmässigt. Automatiserade fordon som börjar tänja på gränserna för konventionell utformning (t.ex. alternativ design av cockpiten där stolarna kan vändas om, ingen ratt och pedaler) skulle begränsas av den nuvarande FMVSS. Många nuvarande standarder bygger på antaganden om konventionella fordonskonstruktioner och därmed innebär en utmaning för vissa designkoncept, särskilt för helt förarlösa koncept där mänskliga passagerare har ingen möjlighet att framföra fordonet.

 FMVSS är federala bestämmelser gällande minimumsäkerhetskrav för design, konstruktion, prestanda och hållbarhet av motorfordon.

Källor

[1] Volpe (prepared for U.S. Department of Transportation) Review of Federal Motor Vehicle Safety Standards (FMVSS) for Automated Vehicles. 2016-03-11 Länk

Googlebil i krock med buss

14 februari körde en av Googles självkörande Lexus RX450h i låg hastighet in i sidan av en stadsbuss [1]. Bilen försökte köra runt några sandsäckar och trodde (både bilen och testföraren) att bussen skulle släppa fram den, vilket den alltså inte gjorde. Inga människor kom till skada vid olyckan. Detaljer om händelsen finns beskrivna i [2] och en rapport till California Department of Motor Vehicles finns i [3].

I ett uttalande säger Google att man uppenbarligen bär ett visst ansvar för olyckan, eftersom den inte hade skett om inte deras bil hade kört som den gjorde.

Egen kommentar

Vi har tidigare rapporterat om olyckor med Googles bilar men då har de blivit påkörda av andra fordon. Såvitt jag vet så är detta första gången som en självkörande bil orsakar olyckan.

Olyckan kommer olägligt för Google som är i dispyt med delstatsmyndigheterna om lagstiftningen runt självkörande fordon.

Källor

[1] Google says it bears ’some responsibility’ after self-driving car hit bus; no injuries reported, Automotive News 2016-02-29 Länk

[2] Megan Geuss: Google self-driving car strikes bus in California, Arstechnica 2016-02-29 Länk

[3] Report of Traffic Accident Involving an Autonomous Vehicle Länk