Kategoriarkiv: Sensorer

Drive Sweden Seminarium med Dr. Steven Shladover

Igår 14 maj arrangerade Drive Sweden ett seminarium med Dr. Steven Shladover, pionjär inom forskning kring automatiserade transportsystem med lång erfarenhet från University of California Berkeley. Temat för föreläsningen var de praktiska utmaningarna kring introduktionen av automatiserade fordon och vikten av uppkoppling för att möjliggöra att automatiserade fordon ska gynna transportsystemet istället för att ha motsatt effekt.

Här är ett kort referat av de olika punkterna som Dr. Shladover berörde.

Historisk översikt

Vi har redan haft automatiserade fordon utan både ratt och pedaler i över 40 år (t.ex. de tåg som kör mellan olika terminaler på större flygplatser). Skillnaden med dessa fordon mot de som nu utvecklas är att de brukas i ett stängt system där de inte behöver interagera med andra fordon eller objekt. Utmaningen nu är att utveckla system som kan hantera ett öppet system som ständigt förändras, och som dessutom inkluderar flera olika typer av objekt (människor, djur, väghinder etc.). Dr. Shladover påpekade också att den hajp som finns kring att automation ligger väldigt nära i tiden inte stämmer överens med vad tekniken faktiskt klarar av i dagsläget.  En anledning till detta är att de som rapporterar inom området (av naturliga skäl) inte är helt insatta i teknologin och övertolkar vad de olika OEM:erna och mjukvaruföretagen predikterar är möjligt inom en snar framtid.

Terminologin 

Ibland kan vissa termer stå i vägen för förståelsen för teknologin. Självkörande (self-driving) är en term som Google uppfunnit som egentligen inte säger så mycket. Robotfordon är ett annat sådant ord som kan vara vilseledande.

För att verkligen kategorisera vad ett automatiserat fordon kan göra är det viktigt att ha en förståelse för:

  1. Vilken förarens roll är.
  2. Vilken systemets roll är.
  3. Graden av uppkoppling i fordonet.
  4. Operativ designdomän (ODD) – de specifika förhållanden ett specifikt automationssystem är utformat för att fungera i, som exempelvis på motorväg eller i ett geografiskt område.

Betydelsen av uppkoppling

Uppkoppling är mycket viktigt för att möjliggöra högre nivåer av automation.  Utan aktiv uppkoppling är det mer sannolikt att automatiserade fordon kommer att försämra det nuvarande transportsystemet. Fordonen behöver kunna förhandla med varandra för att koordinera sin körning utan att utgöra en säkerhetsrisk.

Exempel på prestanda som endast kan uppnås med hjälp av kooperativa system inkluderar kolonnkörning (V2V) och hastighetsharmonisering (V2I).

Dr. Shladover menade också på att 3G/4G är tillräckligt bra för automation, det vill säga 5G är inget krav för att möjliggöra automation.

Utmaningar relaterade till detekteringssystem

Automatiserade fordon måste inte bara kunna detektera objekt, utan de behöver också kunna förutsäga hur objekten kommer att röra sig. Här ligger utmaningen i hur man kravställer tröskeln för känslighet för systemet, så att fordonet inte stannar så fort det detekterar något som uppenbarligen inte skulle orsaka skada. Sensorer behöver inkludera radar, LiDAR, högupplösta kartor, kameror och trådlös kommunikation.

För att garantera en hög nivå av säkerhet behöver systemet detektera allt, men för funktionalitetens skull behöver det endast detektera det som kan utgöra ett hot.

Utmaningar relaterade till säkerhet

För att visa på att automatiserade fordon är säkra är den första utmaningen att kartlägga vilken kombination av scenarion som ska bedömas. Det som också behöver definieras är vilken kombination av testning i sluten testmiljö, testning på offentliga vägar och simulering som är nödvändigt för att visa på att det automatiserade fordonet är säkert. Här behöver man också undersöka hur mycket som behövs av varje testtyp och hur man ska gå tillväga för att validera simuleringarna.

Utmaningar relaterade till hur media rapporterar om autonoma fordon

Dr. Shladover är också väldigt skeptisk till hur olika medier rapporterar om utvecklingen kring automatiserade fordon och bygger upp förväntningar hos allmänheten. Frustrationen ligger i hur media rapporterar att det kommer finnas fullt automatiserade fordon på vägarna inom en snar framtid, vilket skiljer sig avsevärt från det faktum att teknologin fortfarande är väldigt ung och obeprövad.

Jaguar Land Rover vill utveckla självkörande bil som kan ”se” runt hörn

Teknikkonsultföretaget Ricardo inleder nu ett samarbete med Jaguar Land Rover (JLR) för påbörja AutopleX-projektet, vars syfte är att skapa en självkörande bil som kan ”se” runt hörn och genom diverse hinder [1].

AutopleX projektet kommer att kombinera uppkoppling, automation och teknik för realtids-kartläggning för att möjliggöra att mer information lämnas till det självkörande fordonet och i ett tidigare skede. Tillgången till denna information tidigt gör det också möjligt för det självkörande fordonet att kommunicera både med andra trafikanter och hinder där det inte finns någon direkt sikt, för att på ett säkert autonomt kunna byta fil och ta sig fram i komplexa rondeller.

Projektet kommer att utveckla teknologi med hjälp av både simulering och fysisk testning på både motorvägar och i stadsmiljöer i Storbritannien.

I projektkonsortiet finns även Highways England (HE), Inrix, Siemens, Transport for West Midlands (TfWM) och WMG (Warwick Manufacturing Group) vid University of Warwick.

Källa

[1] Frost, A.: Jaguar Land Rover and Ricardo to develop self-driving car that can ‘see’ around corners, Traffic Technology Today, 2018-04-23 Länk

Sensor som ser i dimman

En grupp forskare vid MIT har utvecklat ett sensorsystem som kan detektera objekt i dimma och beräkna avstånd till dem, något som på sikt kan hjälpa automatiserade fordon att detektera objekt vid dåliga väderförhållanden [1].

Sensorsystemet har testats i labbmiljö där den presterat bättre än mänskligt seende. I en tät dimma, där människan bara kunde se 36 cm framför sig, kunde systemet upptäcka objekt som befann sig 57 cm ifrån.

Enligt forskarna var dimman mycket tätare än vad man vanligtvis upplever i verklig trafik, och om ett detekteringssystem kunde prestera lika bra som en mänsklig förare vid körning i dimma skulle det vara ett stort genombrott.

Systemet är baserat på en kamera som använder sig av flygtidsprincipen (time of flight). Den skickar ljussignaler och mäter sedan tiden det tar för signalerna att reflekteras. För att komma runt problemet med att vattendroppar i dimman kan störa signalerna används statistiska beräkningar. En ledtråd: MIT-forskarna har kommit fram till att, oavsett hur tjock dimman är, kommer ankomsttiden för det reflekterade ljuset att följa en Gamma-distribution.

Systemet beskrivs i mer detalj i en artikel som heter Towards Photography Through Realistic Fog och som presenteras nästa månad på International Conference on Computational Photography.

Här kan ni se en illustration.

Källor

[1] Hardestay, L., MIT News. Depth-sensing imaging system can peer through fog. 2018-04-20 Länk

Sensor som upptäcker vattenplaning

Continental utvecklar ett sensorbaserat system för att ta itu med risken för vattenplaning för både manuellt drivna och automatiserade fordon [1].

Tanken är att systemet, med hjälp av information från det egna och andra bilars däcksensorer och kameror, ska prediktera risken för vattenplaning, och vid behov varna föraren om det finns signifikant risk för friktionsförlust mellan däcken och vägen orsakad av ett tjockt lager vatten på vägen.

Källor

[1] Continental Press. Continental Develops Aquaplaning Warning System. 2018-04-12 Länk

DeepScale försöker förstå omvärlden

Startupföretaget DeepScale har fått en ny finansiering på ungefär 15 miljoner dollar (Serie A-investering ledd av Point72 och next47) [1].

DeepScale utvecklar artificiell intelligens för förarstödsystem och automatiserad körning. De fokuserar framförallt på att implementera djupa neurala nätverk på ett kostnadseffektivt sätt.

Dess neurala nätverk använder data från olika sensorer för att hjälpa fordon att förstå omvärlden. Grundidén är att använda rådata från fordonssensorer (istället för objektdata) och använda en inbäddad processor för sensorfusion. Planen är att få detta att fungera för storskalig användning. Just nu är fokus på att säkerställa noggrannheten och robustheten med hjälp av billig hårdvara (i storleksordningen 10 dollar) och låg energiförbrukning (i storleksordningen 10 Watt).

Egen kommentar

Att få ett automatiserat system att fungera i en liten skala är ”lätt”. Men att få det att fungera på en stor flotta är en utmaning, det gäller bland annat att optimera och få ner energiförbrukningen. Det är ett ämne som lätt hamnar i skymundan men som är viktigt att adressera för att kunna få ut dessa system på marknaden.

Källor

[1] Walz, E., FutureCar. DeepScale Raises $15 Million for Perception Software for Autonomous Vehicles. 2018-04-09 Länk

Sensorerna är inte tillräckligt bra ännu

I eftermälet till Uber-olyckan erkänner nu flera leverantörer av sensorer till självkörande fordon, bland dem Nvidia och Mobileye, att sensorsystemen inte är tillräckligt bra ännu för allmän användning [1].

Även om komponenterna fungerar bra för att samla in data och för att utveckla och  förbättra algoritmer för styrning och objektidentifiering så räcker de ännu inte till för full självkörning, t.ex. avseende:

  • Radarers upplösning och synfält vilket begränsar hur många  objekt som kan detekteras samt gör det svårt att skilja små objekt från större.
  • Räckvidd och samplingsfrekvens för lidar vilket kan skapa gap i laser-bilder.
  • Problem kopplade till regn och dimma som begränsar prestandan.

Det handlar inte om Ubers specifika implementation utan om den generella statusen av systemen. Det finns idag ingen standard för vad radar, lidar och kameror ska klara utan alla har sin egen uppfattning om vad sensorerna ska klara vilket gör det svårt för leverantörerna att klara.

”Alla gör vad de vill,” säger Kobe Marenko, VD för israeliska sensorföretaget Arbe Robotics. ”Alla har sin egen uppfattning om vad som är minimikraven.”

Källor

[1] Shiraz Ahmed: Suppliers confront shortcomings of self-driving tech, Rubber & Plastics New 2018-04-02 Länk

Lästips inför påsken

Mellan ägg och sill kanske ni vill har något att läsa.

  • Ett tips är Automotive Megatrends temanummer ”Are we ready for automotiv AI? som tar upp artificiell intelligens och angränsande ämnen ur ett antal perspektiv. Ur innehållet:
    • Artificiell intelligens roll i den framtida mobiliteten
    • Hur AI kan klara sitt ”förarprov”
    • AI-assistenter i bilar
    • LIDAR som nyckelteknologi
    • Volkswagens syn på AI
    • Zenuity om framtiden
    • Hur man kan förhindra dataintrång
    • HD-kartor och förarstödsystem
  • Under de senaste åren har vi vittnat många nya allianser kopplade till utveckling av automatiserade fordon och mobilitetstjänster. I en ny rapport kallad Strategic alliances: a real alternative to M&A? beskriver KMPG vad som krävs för att diverse allianser inom transportbranschen ska kunna överleva.

Glad Påsk!

 

Autoliv levererar till Geely

Autoliv har fått i uppdrag att utveckla de första förarstödsystemen till Geelys bilar motsvarande automationsnivå 3 enligt SAE-skalan [1]. Det omfattar elektroniska styrenheter samt mjukvara till avancerade förarstödsystem, radarsystem och kamerasystem med mono- och stereovision. Utvecklingen kommer att ske i samarbete med mjukvaruföretaget Zenuity (Autolivs och Volvo Cars gemensamma satsning).

Då den kinesiska marknaden är stor och sådana här system  precis har börjat komma i fordon är detta en viktig milstolpe för Autoliv.

Källor

[1] Autoliv Press Releases. Autoliv Nominated to Develop and Produce First Level 3 ADAS System for Geely. 2018-03-08 Länk

Ny laserteknik gör det möjligt för autonoma fordon upptäcka hinder runt hörnet

En forskargrupp från Stanford University har utvecklat ett nytt laserbaserat system som gör det möjligt för autonoma bilar att se hinder runt hörnet innan det är inom deras visuella synfält [1].

Systemet gör detta genom att effektivt producera bilder av föremål som är dolda runt ett hörn, vilket gör det möjligt för autonoma fordon att se hinder innan de kommer inom synhållet.

Genom att använda teknologier som t.ex. LIDAR, skickas laserpulser mot en yta och mäter tiden som krävs för att ljuset ska reflekteras – denna data samlas sedan in för att bygga en tredimensionell modell av ytan vilket resulterar i att man kan utveckla bildobjekt som inte är direkt synliga för kameran.

Forskargruppen uppgav också att den reflekterande karaktären av vägskyltar och cykelreflektorer gör deras teknik passar bra för autonoma fordon och tillägger att deras forskningen använder sensorer som liknar dem som redan används i autonoma fordon.

Trots detta meddelade forskargruppen dock att de fortfarande behöver förbättra systemet, så det kan bli bättre på att upptäcka objekt som inte är väldigt reflekterande eller stationära (till exempel barn eller vilda djur) men även att se till det kan användas utomhus under soliga förhållanden.

Källa

[1] Davis,N., New laser technology lets driverless cars see round corners, The Guardian, 2018-03-05 Länk

Värmekameror

Israelisk startuppföretaget Adasky tror att värmekameror är en viktig komponent för automatiserad körning [1].

Andra sensorer som vanliga kameror och lidar kan ha svårt att detektera objekt under vissa förhållanden, som exempelvis tät dimma, och det är där som värmekameror har en fördel då de detekterar temperaturen på objekten. Ibland kan det även med värmekameror vara svårt klassificera objekt, som att exempelvis särskilja mellan en människa eller hund, men det går åtminstone att konstatera att är något levande som kameran ser.

Även andra tillverkare som exempelvis Flir har visat liknande lösningar.

Källor

[1] Baldwin, R., Engadget. Thermal cameras could be key to safer self-driving vehicles. 2018-02-14 Länk