Kategoriarkiv: Sensorer

Smart Eye i samarbete med Geely

Svenska företaget Smart Eye, som bland annat gjort sig känt för sitt kamerasystem som kan mäta och beräkna vart en förare tittar, har inlett ett samarbete med Geely [1]. Samarbetet går ut på att  tillsammans utveckla nya säkerhetssystem för bilar med hjälp av Smart Eyes AI-drivna förarmonitorteknik (Driver Monitoring Systems, DMS).

Målet är att utveckla tekniken till den grad att den kan integreras i delvis automatiserade bilar som ska börja tillverkas nästa år.

Egen kommentar

Smart Eye har redan minst tre andra samarbeten med icke-namngivna fordonstillverkare, vilket tyder på vikten av att veta var en förare tittar. Detta är också ett ämne som utforskas av Smart Eye och RISE i ett pågående forskningsprojekt kallat DRAMA – Driver and passenger activity mapping (finansieras av FFI). Där är fokus på att identifiera och kartlägga förarens och passagerarnas aktiviteter.

Källor

[1] Smart Eye Press. Geely och Smart Eye samarbetar för att göra semi-autonoma bilar 2019. 2018-08-31 Länk

Volvo Cars blir delägare i Luminar

Genom sin nyinstiftade fond Volvo Cars Tech Fund, har Volvo Cars nu köpt andelar i lidarföretaget Luminar [1]. Detta är en strategisk satsning då Luminar har utvecklat en lidar för automatiserade fordon som påstås vara överlägsen motsvarande lidarsensorer på marknaden.

För Volvo Cars innebär detta en möjlighet att lära sig mer om Luminars teknik, och för Luminar öppnas upp möjligheten att validera sina tekniker samt att dra nytta av Volvo Cars unika tillgång till den kinesiska bilmarknaden.

Det är okänt hur stor summa som Volvo Cars Tech Fund investerat.

Egen kommentar

Volvo Cars är långt ifrån ensam fordonstillverkare att investera i sensorföretag. Argo AI som ägs av Ford har exemplevis köpt upp lidartillverkaren Princeton Lightwave, medans GM  köpt upp Strobe.

Källor

[1] Volvo Cars Pressmeddelnade. Volvo Cars Tech Fund investerar i fordonssensorföretaget Luminar. 2018-06-14 Länk

Innoviz + HiRain

Sensortillverkaren Innoviz Technologies och den kinesiska leverantören HiRain Technologies har inlett ett samarbete som går ut på att lansera Innovitz LiDAR på den kinesiska marknaden [1].

Innoviz LiDAR kallas InnovizOne och gör det möjligt för automatiserade fordon att känna av omgivningen med stor noggrannhet. Detta även på långa avstånd och i varierande väder- och ljusförhållanden.

Egen kommentar

Med tanke på hur mycket den kinesiska fordonsindustrin växt under de senaste åren, och hur mycket den väntas växa framöver, är detta ett viktigt steg för Innoviz. HiRain är väletablerade i Kina och samarbetet kommer nog att göra företaget konkurrenskraftigare.

För tillfället är det känt att BMW kommer använda InnovizOne i sina bilar som väntas på marknaden 2021.

Källor

[1] Innoviitz Technologies. Innoviz Technologies and HiRain Technologies Partner to Bring High-Performance LiDAR and Computer Vision Software to Chinese Auto Manufacturers. 2018-06-06 Länk

iDar sensor

Startupföretaget AEye har utvecklat en ny sensor kallad iDar [1, 2]. Den är baserad på en kombination av lidar, kamera och artificiell intelligens som möjliggör för fordon att se och uppfatta sin omgivning mer som människor.

En viktig del i iDar är True Color Lidar som lägger till 2D-färg (från kamera) över ett 3D-punktmoln (från Lidar). Genom att möjliggöra absolut färg- och distanssegmentering och samlokalisering (utan extra behandling), möjliggör den snabb och noggrann tolkning av skyltar, utryckningsljus, bromsljus och andra scenarier som existerande lidarsensorer har svårt att klara av.

Enligt AEye kan iDar identifiera objekt 10-20 gånger mer effektivt än en vanlig lidar och väntas ha stor betydelse för automatiserad körning.

iDar kommer att börja levereras i juli. Enligt AEye kommer iDar att vara den enda sensorn på marknaden som kombinerar lidar- och kameradata mekaniskt på hårdvarunivå.

Källor

[1] Wiggers, K, Venturebeat. AEye’s iDar sensor combines camera and lidar data into a 3D point cloud. 2018-05-21 Länk

[2] AEye. iDAR is more than LiDAR. Länk

Startups inom automatiserade fordon

Det pratas och skrivs ofta om hur många entreprenörsföretag, startups, det finns inom området automatiserade fordon. Nu har TechCrunch grävt i detta och egentligen bara hittat 12 st oberoende och välfinansierade sådana [1], och kategoriserat dem inom två områden: sensorteknologiföretag och de som utvecklar kompletta teknikplattformar inklusive hårdvara och reglerfunktioner.

Sensorföretag: Nauto Inc, Quanergy Systems, CYNGN, Innoviz Technologies, Autotalks, Oryx Vision. Av dessa är de 3 första hemmahörande i Kalifornien och de 3 sista i Israel.

Teknikplattformsföretag: Zoox, Roadstar.ai, Pony.ai, Aurora, TuSimple, Drive.ai. Av dessa är alla i Kalifornien utom Roadstar.ai som finns i Shenzhen.

Egen kommentar

De som utvecklar sensorer har ofta en lättare väg in till fordonsföretagen då de i princip säljer en komponent vilket kan ske på traditionellt sätt. Teknikplattformsutvecklarna konkurrerar däremot delvis med fordonstillverkarna själva. Å andra sidan börjar allt fler inse att man behöver samarbeta inom området för att över huvudtaget lyckas ta sig till marknaden.

Källor

[1] J Rowley: The well-funded startups driven to own the autonomous vehicle stack, TechCrunch 2017-05-27 Länk

 

Drive Sweden Seminarium med Dr. Steven Shladover

Igår 14 maj arrangerade Drive Sweden ett seminarium med Dr. Steven Shladover, pionjär inom forskning kring automatiserade transportsystem med lång erfarenhet från University of California Berkeley. Temat för föreläsningen var de praktiska utmaningarna kring introduktionen av automatiserade fordon och vikten av uppkoppling för att möjliggöra att automatiserade fordon ska gynna transportsystemet istället för att ha motsatt effekt.

Här är ett kort referat av de olika punkterna som Dr. Shladover berörde.

Historisk översikt

Vi har redan haft automatiserade fordon utan både ratt och pedaler i över 40 år (t.ex. de tåg som kör mellan olika terminaler på större flygplatser). Skillnaden med dessa fordon mot de som nu utvecklas är att de brukas i ett stängt system där de inte behöver interagera med andra fordon eller objekt. Utmaningen nu är att utveckla system som kan hantera ett öppet system som ständigt förändras, och som dessutom inkluderar flera olika typer av objekt (människor, djur, väghinder etc.). Dr. Shladover påpekade också att den hajp som finns kring att automation ligger väldigt nära i tiden inte stämmer överens med vad tekniken faktiskt klarar av i dagsläget.  En anledning till detta är att de som rapporterar inom området (av naturliga skäl) inte är helt insatta i teknologin och övertolkar vad de olika OEM:erna och mjukvaruföretagen predikterar är möjligt inom en snar framtid.

Terminologin 

Ibland kan vissa termer stå i vägen för förståelsen för teknologin. Självkörande (self-driving) är en term som Google uppfunnit som egentligen inte säger så mycket. Robotfordon är ett annat sådant ord som kan vara vilseledande.

För att verkligen kategorisera vad ett automatiserat fordon kan göra är det viktigt att ha en förståelse för:

  1. Vilken förarens roll är.
  2. Vilken systemets roll är.
  3. Graden av uppkoppling i fordonet.
  4. Operativ designdomän (ODD) – de specifika förhållanden ett specifikt automationssystem är utformat för att fungera i, som exempelvis på motorväg eller i ett geografiskt område.

Betydelsen av uppkoppling

Uppkoppling är mycket viktigt för att möjliggöra högre nivåer av automation.  Utan aktiv uppkoppling är det mer sannolikt att automatiserade fordon kommer att försämra det nuvarande transportsystemet. Fordonen behöver kunna förhandla med varandra för att koordinera sin körning utan att utgöra en säkerhetsrisk.

Exempel på prestanda som endast kan uppnås med hjälp av kooperativa system inkluderar kolonnkörning (V2V) och hastighetsharmonisering (V2I).

Dr. Shladover menade också på att 3G/4G är tillräckligt bra för automation, det vill säga 5G är inget krav för att möjliggöra automation.

Utmaningar relaterade till detekteringssystem

Automatiserade fordon måste inte bara kunna detektera objekt, utan de behöver också kunna förutsäga hur objekten kommer att röra sig. Här ligger utmaningen i hur man kravställer tröskeln för känslighet för systemet, så att fordonet inte stannar så fort det detekterar något som uppenbarligen inte skulle orsaka skada. Sensorer behöver inkludera radar, LiDAR, högupplösta kartor, kameror och trådlös kommunikation.

För att garantera en hög nivå av säkerhet behöver systemet detektera allt, men för funktionalitetens skull behöver det endast detektera det som kan utgöra ett hot.

Utmaningar relaterade till säkerhet

För att visa på att automatiserade fordon är säkra är den första utmaningen att kartlägga vilken kombination av scenarion som ska bedömas. Det som också behöver definieras är vilken kombination av testning i sluten testmiljö, testning på offentliga vägar och simulering som är nödvändigt för att visa på att det automatiserade fordonet är säkert. Här behöver man också undersöka hur mycket som behövs av varje testtyp och hur man ska gå tillväga för att validera simuleringarna.

Utmaningar relaterade till hur media rapporterar om autonoma fordon

Dr. Shladover är också väldigt skeptisk till hur olika medier rapporterar om utvecklingen kring automatiserade fordon och bygger upp förväntningar hos allmänheten. Frustrationen ligger i hur media rapporterar att det kommer finnas fullt automatiserade fordon på vägarna inom en snar framtid, vilket skiljer sig avsevärt från det faktum att teknologin fortfarande är väldigt ung och obeprövad.

Jaguar Land Rover vill utveckla självkörande bil som kan ”se” runt hörn

Teknikkonsultföretaget Ricardo inleder nu ett samarbete med Jaguar Land Rover (JLR) för påbörja AutopleX-projektet, vars syfte är att skapa en självkörande bil som kan ”se” runt hörn och genom diverse hinder [1].

AutopleX projektet kommer att kombinera uppkoppling, automation och teknik för realtids-kartläggning för att möjliggöra att mer information lämnas till det självkörande fordonet och i ett tidigare skede. Tillgången till denna information tidigt gör det också möjligt för det självkörande fordonet att kommunicera både med andra trafikanter och hinder där det inte finns någon direkt sikt, för att på ett säkert autonomt kunna byta fil och ta sig fram i komplexa rondeller.

Projektet kommer att utveckla teknologi med hjälp av både simulering och fysisk testning på både motorvägar och i stadsmiljöer i Storbritannien.

I projektkonsortiet finns även Highways England (HE), Inrix, Siemens, Transport for West Midlands (TfWM) och WMG (Warwick Manufacturing Group) vid University of Warwick.

Källa

[1] Frost, A.: Jaguar Land Rover and Ricardo to develop self-driving car that can ’see’ around corners, Traffic Technology Today, 2018-04-23 Länk

Sensor som ser i dimman

En grupp forskare vid MIT har utvecklat ett sensorsystem som kan detektera objekt i dimma och beräkna avstånd till dem, något som på sikt kan hjälpa automatiserade fordon att detektera objekt vid dåliga väderförhållanden [1].

Sensorsystemet har testats i labbmiljö där den presterat bättre än mänskligt seende. I en tät dimma, där människan bara kunde se 36 cm framför sig, kunde systemet upptäcka objekt som befann sig 57 cm ifrån.

Enligt forskarna var dimman mycket tätare än vad man vanligtvis upplever i verklig trafik, och om ett detekteringssystem kunde prestera lika bra som en mänsklig förare vid körning i dimma skulle det vara ett stort genombrott.

Systemet är baserat på en kamera som använder sig av flygtidsprincipen (time of flight). Den skickar ljussignaler och mäter sedan tiden det tar för signalerna att reflekteras. För att komma runt problemet med att vattendroppar i dimman kan störa signalerna används statistiska beräkningar. En ledtråd: MIT-forskarna har kommit fram till att, oavsett hur tjock dimman är, kommer ankomsttiden för det reflekterade ljuset att följa en Gamma-distribution.

Systemet beskrivs i mer detalj i en artikel som heter Towards Photography Through Realistic Fog och som presenteras nästa månad på International Conference on Computational Photography.

Här kan ni se en illustration.

Källor

[1] Hardestay, L., MIT News. Depth-sensing imaging system can peer through fog. 2018-04-20 Länk

Sensor som upptäcker vattenplaning

Continental utvecklar ett sensorbaserat system för att ta itu med risken för vattenplaning för både manuellt drivna och automatiserade fordon [1].

Tanken är att systemet, med hjälp av information från det egna och andra bilars däcksensorer och kameror, ska prediktera risken för vattenplaning, och vid behov varna föraren om det finns signifikant risk för friktionsförlust mellan däcken och vägen orsakad av ett tjockt lager vatten på vägen.

Källor

[1] Continental Press. Continental Develops Aquaplaning Warning System. 2018-04-12 Länk

DeepScale försöker förstå omvärlden

Startupföretaget DeepScale har fått en ny finansiering på ungefär 15 miljoner dollar (Serie A-investering ledd av Point72 och next47) [1].

DeepScale utvecklar artificiell intelligens för förarstödsystem och automatiserad körning. De fokuserar framförallt på att implementera djupa neurala nätverk på ett kostnadseffektivt sätt.

Dess neurala nätverk använder data från olika sensorer för att hjälpa fordon att förstå omvärlden. Grundidén är att använda rådata från fordonssensorer (istället för objektdata) och använda en inbäddad processor för sensorfusion. Planen är att få detta att fungera för storskalig användning. Just nu är fokus på att säkerställa noggrannheten och robustheten med hjälp av billig hårdvara (i storleksordningen 10 dollar) och låg energiförbrukning (i storleksordningen 10 Watt).

Egen kommentar

Att få ett automatiserat system att fungera i en liten skala är ”lätt”. Men att få det att fungera på en stor flotta är en utmaning, det gäller bland annat att optimera och få ner energiförbrukningen. Det är ett ämne som lätt hamnar i skymundan men som är viktigt att adressera för att kunna få ut dessa system på marknaden.

Källor

[1] Walz, E., FutureCar. DeepScale Raises $15 Million for Perception Software for Autonomous Vehicles. 2018-04-09 Länk