Kategoriarkiv: Samverkan människa – maskin

AI-baserad “ratt”

Jaguar har visat sitt nya ”ratt” baserad på artificiell intelligens för användning i automatiserade fordon år 2030 [1]. Den kallas Sayer och är en bärbar enhet, eller virtuell assistent, som användaren bär med sig och kan använda i olika fordon för att interagera med dem. Användaren kan använda den för att exempelvis boka en bil.

Egen kommentar

Jag måste erkänna att jag har svår att förstå varför någon skulle vilja bära med sig en AI-ratt? Varför inte använda en smarttelefon, smartklocka eller liknande?

Källor

[1] Jaguar Newsroom. “HELLO, MY NAME IS SAYER. I AM THE STEERING WHEEL OF THE FUTURE”. 2017-09-04 Länk

Senaste nytt och lästips

  • Skutt, skutt. Att identifiera och avståndsbestämma hoppande kängurur är svårt för Volvo Cars. Länk
  • Waymo lär sina bilar hur de ska interagera med utryckningsfordon. Länk
  • Polisen i Dubai ska testa självkörande övervakningsbilar utvecklade av Atsao Singapore Limited. Länk
  • Från 2019 kommer Volkswagen att införa pWLAN som standard på vissa modeller. Länk
  • Ett amerikanskt företag föreslår Hyperlane, ett körfält för automatiserade fordon. Länk
  • Toyotas nya Lexus LS som nyligenvisades i Japan kommer med en rad förarstödsfunktioner. Länk
  • Ford skapar ett nytt team som ska fokusera på forskning och utveckling inom robotik och artificiell intelligens. Länk
  • Nissans vision är inte att ersätta föraren, utan att förbättra förarens upplevelse med hjälp av automation. Länk
  • Trimbles dotterbolag Applanix i samarbete med universitet i Kanada kring positioneringssystem för automatiserade fordon. Länk
  • Intel-företaget Wind River och BlackBerry QNX är på frammarsch i Ottawa. Länk
  • MIT utvecklar drönare som kan både köra och flyga. Länk
  • MIT har också tagit fram en självkörande rullstol. Länk
  • Ertrac har släppt en ny version av Automated Driving Roadmap. Länk
  • TechEmergence beskriver vad som är på gång på den tunga sidan. Länk
  • KTH och VTI har tagit fram framtida scenarier för automatiserade fordon i Sverige. Länk
  • Nyfiken på hur automatiserade fordon kan hjälpa människor med funktionshinder? Den problematiken diskuteras i ett White Paper från Ruderman Foundation. Länk
  • Automatiserade fordon måste vara kooperativa. Länk
  • Jordbruken kommer aldrig bli som förr. Länk

Volvo och Audi har olika uppfattning om Nivå 3

Nya Audi A8 med Traffic Jam Pilot kommer med kapabilitet för Nivå 3-automation enligt SAE-skalan. Men Nivå 3 är inte säkert anser Volvo Cars och kommer därför, i likhet med några andra aktörer som Ford, Google och Mercedes, att helt hoppa över den nivån [1] [2].

I Traffic Jam Pilot tillåts förarna att ta blicken från vägen och göra annat i hastigheter upp till 60 km/h, men samtidigt vara tillgänglig för att ta tillbaka kontrollen inom några sekunder. Om föraren inte gör detta så kommer bilen att stanna så säkert som det går. Men i Nivå 3 är föraren fortfarande ansvarig för fordonets framfart även när Traffic Jam Pilot är aktivt, och har också möjlighet att reglera själv.

Men Volvo Cars anser att detta förfarande är osäkert och kommer själva bara att erbjuda automatiserad körning när det är säkert och då ta över ansvaret för körningen från föraren [3], dvs. i nivåerna 4-5.

Egen kommentar

Med dagens automationsnivåer 0-2 med bl.a. Teslas Autopilot har föraren alltid ansvar och systemen är egentligen bara avancerade förarstödsystem. I nivåerna 4-5 ska bilen klara att köra helt själv, åtminstone i vissa situationer (nivå 4). Men nivå 3 innebär ett mellanting som kan vara svårt att hantera; föraren tillåts göra annat men är ändå ansvarig och förväntas ta över när inte systemen klarar av att hantera situationer.  Men erfarenheter från bl.a. flyg visar att det är väldigt svårt för förare att göra detta, speciellt i kritiska situationer.

Källor

[1] Georgios Stathousis: Another carmaker skips Level 3 automated driving, LinkedIn 2017-04-06 Länk

[2] Audi Piloted Driving, Audi Newsroom Länk

[3] Volvo Cars CEO urges governments and car industry to share safety-related traffic data, Volvo Car Group Global Newsroom 2017-04-03 Länk

Nya uppgifter om Uber-olyckan

Angående olyckan i Arizona med en av Ubers självkörande bilar som vi skrivit om tidigare så har det nu kommit fram lite nya intressanta uppgifter [1].

Olyckan skedde i en korsning där en Honda körd av en mänsklig förare svängde vänster och vägen var då fri. Enligt föraren av Hondan och ett vittne så kom den självkörande Volvo-bilen fort för att hinna före att ett trafikljus slog om till rött, vilket gjorde att Hondan körde in i sidan på Volvon som välte.

Samtidigt så har polisen i Arizona sagt att olyckan inte var Uber-bilens fel utan Honda-förarens [2].

Egen kommentar

Om det stämmer så har Ubers tekniker programmerat bilen att bete sig som åtminstone en del mänskliga förare gör, vilket står i strid mot vad det skrivits om att självkörande bilar snarare kommer att vara alltför försiktiga. Det kan då också stämma med incidenten i San Fransisco där en annan Uber-bil körde förbi ett rödljus [3].

Källor

[1] Mark Bergen: Uber Crash Shows Human Traits in Self-Driving Software, Bloomberg 2017-03-30 Länk

[2] Daisy Dunne: Uber’s self-driving car was NOT to blame for the horrific Arizona crash, police report confirms, Daily Mail 2017-03-30 Länk

[3] Fred Lambert: DMV shuts down Uber’s unlicensed self-driving car program in reaction to footage of prototype running red light in front of pedestrian, electrec 2016-12-14 Länk

Cyklister är en riktig utmaning

Enligt professor Steven Shladover från University of California-Berkeley som IEEE Spectrum samtalat med är cyklister en av största utmaningar för automatiserade fordon [1]. Cyklistbeteenden är ganska dynamiska och generellt sett svåra att förutsäga, både för mänskliga förare och för datoralgoritmer.

För att visa på problemets omfattning tas Deep3DBox algoritm som utvecklats av Jana Košecká och hennes kollegor vid George Mason University som ett exempel. Den har förmåga att identifiera 89 % av fordon i en standardtest, men klarar av att identifiera endast 74 % av cyklister i ett motsvarande test.

Cyklistdetektering kan förbättras med hjälp av fusion av data från olika sensorer och med hjälp av detaljerade 3D kartor, men det lär dröja tills automatiserade fordon kan eliminera cyklistolyckor. Enligt Brian Wiedenmeier från San Francisco Bicycle Coalition har det redan förekommit fall där automatiserade fordon (från Uber) äventyrat cyklisternas säkerhet genom att inte respektera trafikregler som tagits fram för att skydda cyklister. Hans rekommendation är att noga testa nya teknologier innan de används i trafiken.

Källor

[1] Fairley, P., IEEE Spectrum. Self-Driving Cars Have a Bicycle Problem. 2017-02-24 Länk

Hur snabbt kan en förare återta kontrollen?

En grupp forskare vid University of Southampton har utfört en studie där de undersökt hur snabbt en mänsklig förare kan återta kontrollen från ett högt automatiserat fordon [1, 2].

Testet utfördes i en körsimulator där teststräckan bestod av en sexfilig motorväg med tre körfält i vardera riktningen. Testgruppen bestod av 26 förare (10 kvinnor och 16 män) som var mellan 20 och 52 år. I genomsnitt hade de haft körkort i 10,6 år (minimum 1 år). För att växla mellan manuellt och automatiserat läge behövde förarna aktivera två knappar på en touchskärm placerad i bilens mittkonsol. När det krävdes att de återtar kontrollen fick de en uppmaning via en ikon som ersatte hastighetsmätaren på instrumentpanelen och ett röstmeddelande som löd ”Please resume control”.

Övertagningstiden mättes både när förarna åkte med i ett automatiserat fordon utan att vara engagerade i några andra uppgifter och när de var engagerade i att läsa en artikel från National Geographic.

För det första fallet varierade tiden mellan 2,0 och 25,8 sekunder (median 4,6 sekunder). När förarna var distraherade med läsning tog det mellan 3,2 och 21,0 sekunder (median 6,1 sekunder) för dem att återta kontrollen. Räknat med medianvärden innebär detta att bilen hinner förflytta sig ca 143 respektive ca 190 meter tills föraren kan återta kontrollen. Viktigt att notera är att dessa tider inte inkluderar tiden det tog för förarna att ta ställning till vad som händer i den givna situationen.

Källor

[1] Eriksson, A., Santon, N.A., Human Factors: The Journal of the Human Factors and Ergonomics Society. Takeover Time in Highly Automated Vehicles

Noncritical Transitions to and From Manual Control.

[2] Brown, B., Digital Trends. Lives depend on how fast drivers resume control of semi-autonomous vehicles. 2017-01-30 Länk

Straffrättsliga perspektiv på självkörande fordon

I en rapport från VTI beskriver juridikforskaren Wanna Svedberg resultaten från sin studie av att analysera de rättsliga förutsättningarna för ansvar och ansvarsutkrävande gällande självkörande fordon på väg [1].

Allmänt konstateras i rapporten att den nuvarande konstruktionen för ansvar inte är avpassad för självkörande fordon, vilken bygger på att det finns en fysisk person som kan ställas till svars för sina handlingar, och som enligt rättsliga föreställningar är rationell, moralisk, fri och inte låter sig påverkas av yttre faktorer.

Med teknik som syftar till att helt eller delvis ersätta föraren så uppstår betydande svårigheter, eftersom de rättsliga kraven för att en gärning ska anses ha begåtts uppsåtligen eller av oaktsamhet och därmed medför straffansvar innebär att gärningen ska vara föremål för individens kontroll och som utgör den moraliska grunden för klander.

Vidare konstateras i studien att självkörande fordon måste förses med en ”etisk kompass”, förslagsvis utifrån följande fyra lagar som fokuserar på att undvika kollisioner [2]:

  1. Ett självkörande fordon bör inte kollidera med eller köra på gående eller cyklist.
  2. Ett självkörande fordon bör inte kollidera med eller köra på ett annat fordon, om undvikandet av kollisionen inte kommer i konflikt med den första regeln.
  3. Ett självkörande fordon bör inte kollidera med ett annat objekt i omgivningen, om undvikandet inte kommer i konflikt med den första och andra regeln.
  4. Ett självkörande fordon bör lyda trafiklagarna, om efterlevnaden av sådana lagar inte kommer i konflikt med de tre första reglerna.

Egen kommentar

Vi har skrivit tidigare om etiska frågor, se bl.a. här.

Källor

[1] Wanna Svedberg: Nya och gamla perspektiv på ansvar? En rättsvetenskaplig studie om ansvar i en straffrättslig kontext gällande självkörande/uppkopplade fordon, VTI rapport 915, 2016 Länk

[2] Gerdes, J. Christian, Thornton, Sarah M. (2015): Technische, rechtliche und gesellschaftliche Aspekte Länk

Tesla-undersökningen läggs ner

Amerikanska myndigheter lägger ner undersökningen av dödsolyckan med en Teslabil i Autopilot-läge i maj som vi skrivit om tidigare [1]. Man har inte kunnat hitta några bevis för att det funnits några fel på bilen eller på Autopilot-systemet utan att ansvaret helt varit den omkomne förarens.

Samtidigt säger NHTSA att förarna kan bli förvirrade om systemet eller föraren är i kontroll i vissa situationer. Tesla har också släppt uppdateringar av Autopilot med bl.a. nya begränsningar av körning utan att ha händerna på ratten, vilket Elon Musk sagt troligen skulle ha kunnat förhindra olyckan.

Källor

[1] David Shepardson: U.S. regulator closes Tesla death probe; no evidence of defects, Automotive News 2017-01-19 Länk

Kontrollöverlämning

Kontrollöverlämning från ett automatiserat system till människan, och vice versa, diskuteras flyktigt i samband med automatiserade fordon. En ny studie utförd av en multidisciplinär forskargrupp vid Stanford University visar att det kan vara svårt för mänskliga förare att på ett smidigt sätt ta kontroll från fordonet [1].

Studien har omfattat 22 förare och fenomenet har studerats vid körfältsbyte på en testbana. Till skillnad från andra liknande studier som indikerar att svårigheten med kontrollöverlämning beror på försämrad situationsmedvetenhet hos föraren, tyder den nya studien på att förarna kan även ha svårt att applicera rätt styrkraft om de själva inte varit med i styrprocessen från början.

Källor

[1] EurekAlert. Taking back control of an autonomous car affects human steering behavior. 2016-12-06 Länk

Självkörande bilar kommer men inte som ni tror

Den mycket erfarne Steven Shladover på California PATH (Partners for Advanced Transportation Technology) vid Berkeley har skrivit en artikelserie i Scientific American om självkörande fordon. I en av artiklarna i somras skrev han om utmaningar i vardagstrafiken som kommer att göra att teknologin inte kommer att kunna införas så som många tror [1]. Automatisering nivå 5 (skalan i sig är förvirrande) är årtionden bort.

Exempel han nämner är vänstersvängar, snö, is, trafikpoliser, trafikvakter, utryckningsfordon och fotgängare. Trafikmiljön är i själva verket betydligt mer komplex än många inser – betydligt mer komplex än till exempel i luftfart.

Shladover anser att allmänheten missleds av terminologin där man blandar autonom, förarlös och självkörande, och av att media fokuserar på de mest optimistiska prognoserna – bäst ”story” helt enkelt.

Shladover pekar också på att trots vad som skrivs så är människan oerhört kapabel att undvika svåra olyckor: dödsolyckor sker en gång/3,3 miljoner körtimmar och olyckor med personskador en gång/64000 körtimmar. Självkörande fordon måste alltså vara minst lika bra. Hur ofta har du problem med din dator, frågar Shladover och hävdar att det krävs nya metoder för att kvalitetssäkra mjukvara.

Vad som däremot kommer är självkörande bilar i speciella miljöer som parkeringsgarage och separata körfält. Vanliga bilar kommer också att bli alltmer automatiserade och kunna köra själva i goda förhållanden och specifika områden. Självkörande skyttelbussar och lastbilar i avgränsade områden är andra exempel som vi inom en ganska snar framtid kommer att se.

Källor:

[1] Steven E. Shladover: The truth about ”self-driving” cars, Scientific American July 2016 Länk