Kategoriarkiv: Sensorer

Två nya samarbeten

BMWs hantering av data. Amazons dotterbolag, Amazon Web Services, och BMW Group ska samarbeta för utveckling av molntjänster. Produkten ska kunna nyttjas för att hantera de stora mängder data som produceras av uppkopplade och automatiserade fordon. Länk

Pony.ai samarbetar med Robosense. Kinesiska AD-utvecklaren Pony.ai har meddelat om ett samarbete med kinesiska lidartillverkaren RoboSense. De ska vidareutveckla RoboSense:s lidar för autonoma bilar och autonoma lastbilar. De ska också vidareutveckla Pony.ais automatiserade körteknologi. Vi fick nyligen även veta att Pony.ai utökar sin testning av autonoma fordon (med säkerhetsförare bakom ratten) till amerikanska staden Tucson i delstaten Arizona. Länk1 Länk2

Tre nya samarbeten

Riskbedömning för försäkringsindustrin. Waymo och Swiss RE meddelade den 26:e september ett forskningssamarbete med målet att utveckla metodologi för riskbedömning relaterat till AV. Riskbedömning relaterat till fordon som primärt styrs av människor skiljer sig markant jämfört med riskbedömning för fordon som är autonoma.  Det kommer även att krävas ny data för att motivera försäkringsmodeller då historisk data om fordonskollisioner främst är baserad på fordon där en människa har varit ansvarig för att styra bilen. Länk

Pony.ai och SAIC:s nya fordon. Pony.ai och SAIC AI Lab har lanserat en ny konceptbil (baserat på SAIC Marvel R modellen) med ambitionen att bygga ut en flotta av autonoma fordon som använder en förarlös lösning på nivå 4 (L4) från Pony.ai. De två företagen kommer att samarbeta på områden som inkluderar human-machine interface (HMI) och remote assistance. Detta tillkännagivande sker i samband med att ”Shanghai Driverless Demo Zone” har lanserats i Shanghai, som tillhandahåller ett område tillägnat för testning av förarlösa fordon. Länk

Stanley Robotics väljer Velodyne. Velodyne har tecknat ett flerårigt avtal med Stanley Robotics, som innebär att Velodyne ska förse Stanley Robotics med LIDARsensorer, tänkta att använda i en automatiserad lösning för parkeringstjänst. Denna automatiserade lösning ska öka antalet fordon som kan lagras på en parkeringsyta samt att förbättra kundupplevelsen för de som behöver parkera sin bil. Antalet bilar som kan parkeras på en yta ökar eftersom lösningen kommer att kunna parkera bilar väldigt tätt. Tänkta användningsområden inkluderar till exempel flygplatser och varuhus. Länk

Mobileye och Geely utökar samarbete

Geely och Intel-ägda Mobileye meddelar att de utökar sitt samarbete i vilket de utrustat Geely-ägda Zeekrs fordon med Mobileyes ADAS-paket vid namn Mobileye SuperVision [1].

Mobileye Supervision finns redan i modellen Zeekrs 001. Planen blir nu att tre ytterligare Geelyfordon får systemet och att ytterligare två Zeekrs-modeller får systemet.

Mobileye SuperVision består av 11 kameror som ger 360 graders täckning, två EyeQ5H system-on-chip, samt en del mjukvara. Tillsammans ska det möjliggöra handsfree-körning på motorväg, automatiserad parkeringsfunktion, automatisk nödbroms, adaptiv farthållare och filhållningsstöd m.m.

Källa

[1] Intel. Geely Holding Group Expands Mobileye Collaboration. 2022-09-26 Länk

Smart eye och ams OSRAM samarbete

Svenska teknikföretaget Smart Eye som utvecklar förarbevakningssystem har ingått samarbete med tyska företaget ams OSRAM för att tillsammans förbättra förar- och kabinbevakningssystem [1].

Den nya produkten, ICARUS, ska nyttja Smart Eyes avkänningsmjukvara tillsammans med ams OSRAMs ljusteknologi för att förbättra avkänning och möjliggöra funktioner så som förstärkt verklighet-heads-up-display (AR-HuD), förarautentisering samt detektion av kroppspositioner.

Källa

[1] Smart eye. Smart Eye Partners with ams OSRAM to Deliver 3D Interior Sensing for Enhanced Driver Monitoring. 2022-09-13 Länk

Volvo EX90

Volvo berättade nyligen om att de officiellt avslöjar sin nya eldrivna SUV vid namn EX90 den 9 november [1, 2].

Vi skrev här i mitten av förra året om några detaljer som hade tillkännagivits om fordonet. Det kommer vara utrustat med långdistans-lidar, åtta kameror, fem radarsensorer, 16 ultraljudssensorer och ett förarbevakningsystem med två kameror som b.la detekterar distraktion och onykterhet.

Fordonet kommer även vara första Volvo-modellen med villkorad automatiserad körning , benämnt Ride Pilot, som under vissa begränsade förhållanden möjliggör automatiserad körning utan förarens uppmärksamhet.

EX90 kommer även att kunna få trådlöst överförda mjukvaruuppdateringar, s.k over-the-air (OTA).

Källor

[1] Volvo. Safety in Mind. 2022-09-21 Länk

[2] Hawkins, A. J., The Verge. Volvo’s EX90 electric SUV will have laser sensors and cameras that can detect drunk driving. 2022-09-21 Länk

Mobileye pilotar i Detroit

Intel-ägda företaget Mobileye meddelar att de för första gången ska pilota autonoma fordon i USA [1].

Piloterna är del av ett större program där man testat Mobileyes AD-system vid namn Mobileye Drive i 20 städer runt om i världen. Piloterna kommer göras med eldrivna NIO ES8-fordon i Detroit, med säkerhetsförare bakom ratten, och utan passagerare från allmänheten.

Mobileye Drive nyttjar 11 kameror, 6 radar, 3 lång-distans lidar och 6 kort-distans lidar som drivs av Mobileyes egna System-on-Chip vid namn EyeQ.

Källa

[1] Mobileye. Level 4 Autonomy Now Testing in Detroit with Mobileye Drive. 2022-09-07 Länk

Värmesensor för bättre AEB

Franska sensortillverkaren Lynred och Belgiska materialtillverkaren Umicore har berättat om ett samarbete för att utveckla värmesensorer för fotgängar-AEB (Autonomous Emergency Braking) [1].

Utveckling av teknologin har finansierats av det europeiska projektet HELIAUS som startade 2018 med 13 projektmedlemmar.

Fördelen med värmesensor för AEB är att de kan detektera objekt på avstånd upp till 300 meter jämfört med kameror som har en räckvidd på upp till 30 meter med halvljus i mörker.

Värmesensor-tekniken kommer demonstreras på konferensen AutoSens som hålls i Belgien 12e till 15e september.

Källa

[1] Electronics Media. Next-gen Thermal Sensing Solution for Pedestrian Autonomous Emergency Braking. 2022-09-08 Länk

Lösning för förbättrat maskinseende

Forskare ifrån Japanska forskningsinstitutet RIKEN Center for Brain Science (CBS) meddelar att de utvecklat maskinseende-teknik som har snabbare och mer tillförlitligt objektdetektering än dagens teknik [1].

Man har baserat lösningen på det mänskliga perceptionssystemet där information om ögats rörelser bearbetas när vi och världen runt omkring oss rör på sig. Forskarna kallar detta för motor copies som skickas till hjärnan för att stabilisera synfältet.

Forskarna utvärderade ett neuralt nätverk som på liknande sätt räknade in ögonrörelser och upptäckte en signifikant förbättring i prestation vid objektklassificering.

Nästa steg är att implementera den här lösningen i en kiselbaserad krets för att undersöka hur väl den fungerar i verklig tillämpning.

Källa

[1] James, A., Autonomous Vehicle International. Mimicking ‘eye’ movements could be key to better self-driving cars. 2022-07-01 Länk

Guldkorn från svensk forskning

Det här är svenska guldkorn från er läsare. Tack för ert fantastiska jobb.

Autonoma leveransfordon i interaktion. Inom projektet GLAD (Goods deliveries under the LAst mile with autonomous Driving vehicles) genomfördes under maj månad en användarstudie där en ADV (Automated Delivery Vehicle) utrustad med s.k. eHMI:er (visuella medel som kommunicerar till människor i omgivningen) körde en kortare rutt. Syftet var att utvärdera hur individer uppfattade och förstod eHMI:erna i olika situationer, samt hur de kan utvecklas. Preliminära resultat indikerar att eHMI:erna i sig inte kommunicerade sina specifika budskap, men att de i sina givna sammanhang blev begripliga. Resultaten visade även på tydliga inlärningseffekter, d.v.s. deltagarna lärde sig snabbt eHMI:ernas budskap. Projektet är finansierad av Trafikverket och utförs av RISE, Clean Motion, Aptiv, Combitech och Högskolan i Halmstad. Kontakt: Mikael Söderman, RISE, (mikael.soderman@ri.se)

Förstudie SMART-projektet. Som en del av det EU-finansierade SMART-projektet genomför RISE en förstudie kring förutsättningarna för att komplettera kollektivtrafiken med förarlösa tjänster i Skaraborg. Projektet leds av Destination Läckö/Kinnekulle som är ett kommunalt bolag ägt av Götene och Lidköping. Preliminära resultat visar att det i några av tätorterna finns intressanta systemeffekter värda att studera närmare men att det är svårt att hitta lämpliga lösningar för lite längre avstånd mellan kollektivtrafikens hållplatser och populära utflyktsmål eller uppför Kinnekulles de branta vägar. Det finns också sträckor i området där det antagligen finns en marknad för kommersiella tjänster med manuellt framförda fordon. Kontakt: Håkan Burden, RISE, (hakan.burden@ri.se)

Generering av dimma och väderklassificering. RISE och Veoneer har under våren 2022 genomfört en förstudie ”Dimhöljt” för lära hur dimma kan skapas i klimatkammare. Syftet med den genererade dimman är att testa lidar, t ex för att filtrera bort störningar, för att validera simuleringsmodeller, för att verifiera sensorprestanda eller för att verifiera att en funktion är inom ODD. Det finns i princip tre olika sätt att slå sönder vatten till fina droppar: med vibrationer, med trycksatt vatten eller med tryckluft; man kan även generera dimma genom att kondensera ånga. Dimma är våta aerosoler i storleksordning från våglängden av synligt ljus till en faktor 20-50 ggr större. Projektet har också undersökt hur mätning av dimmans karaktäristik utförs på lämpligt sätt. Mätningar måste bland annat inkludera storleksfördelning av partiklar och mängden vatten i flytande form. Det är viktigt att skapa repeterbart testsystem med dimma. I projektet studerades därtill hur man med en lidar kan klassificera vädertyper såsom dimma, regn, snö, klart väder. Studien baserades på mätningar utomhus och i klimatkammare. De inledande försöken har varit framgångsrika och tanken är att förstudien ”Dimhöljt” följs av en fördjupad ansats. Förstudien delfinansierades av Vinnova/FFI, 2021-02582. Kontakt: Martin Sanfridson, RISE, (martin.sanfridson@ri.se)

Autonoma fordon för blinda, döva och dövblinda. I en nyligen publicerad journalartikel vid namn ”Vibrotactile guidance for trips with autonomous vehicles for persons with blindness, deafblindness, and deafness” presenteras resultat från Drive Sweden projektet ”Guidning till autonoma fordon för blinda, döva och dövblinda”. Studien visar bland annat på vikten av att beakta användarperspektivet för hela resan, inte bara fordonet i sig. Artikeln finns att läsa här. Kontaktperson Jonas Andersson (jonas.andersson@ri.se)

Best student paper på IEEE konferens. Vid konferensen IEEE Intelligent Vehicles Symposium vann doktoranden José Manuel Gaspar Sánchez och industridoktoranden Truls Nyberg från KTH och Scania första pris i kategorin ”Best student paper” med artikeln ”Foresee the Unseen: Sequential Reasoning about Hidden Obstacles for Safe Driving”. I samarbete mellan KTH och Scania har studenterna utarbetat en algoritm för autonoma fordon för att hantera skymda trafikanter på ett säkert och effektivt sätt. Forskningen har finansierats genom Vinnovas center TeCOSA och forskningsprogrammet WASP.
Andra pris i kategorin gick till industridoktoranden Magnus Gyllenhammar vid KTH och Zenseact för artikeln ”Uncertainty Aware Data Driven Precautionary Safety for Automated Driving Systems Considering Perception Failures and Event Exposure”, också den finansierad genom WASP. Kontaktperson Truls Nyberg (truls.nyberg@scania.com)  & Magnus Gyllenhammar (gyllenhammar@zenseact.com). 

Syntetisk data för validering. En vanlig utmaning inom maskininlärning är att ta fram realistisk data både för att träna sina nätverk samt för att validera dem. I dag är en vanlig metod att samla in data i den miljö där nätverket ska appliceras, t.ex. i trafiken, och sedan hoppas att det resulterande datasetet ska vara representativt. Detta är tyvärr sällan fallet eftersom att det är svårt att få med alla tänkbara scenarion. Inom FFI-projektet DIFFUSE utvecklas metoder för att skapa syntetisk data och bilder primärt för valideringssyften. Tanken är att förbättra de maskininlärningsmetoder som i dagsläget bara i begränsad omfattning ger kontroll över vad den resulterande bilden innehåller. Kontaktperson Martin Torstensson (martin.torstensson@ri.se)

Future mobility services in Ride the future-project. Ride the future is a multi-brand pilot where 8 partners join forces in running three autonomous buses along a 4 km route in Linköping’s Valla district. The partners are VTI, Linköping University, Linköping Science Park, Transdev Sweden AB, Östgötatrafiken, Linköpings kommun, Akademiska Hus and RISE. The area includes residential housing, businesses and the campus of Linköping University (LiU). 
Ride the future is furthermore one of the sites in the larger Horizon 2020-project called SHOW (SHared automation Operating models for Worldwide adoption), and a platform for several projects related to future mobility solutions. To date over 20 studies and research projects – completed and ongoing – are related to Ride the Future. A result conference was held 26 April and presented findings about the following topics:

  • Lessons learned from setting up a demonstration site with autonomous shuttle operation; paper (funding: SHOW)
  • Mobility for all – but who is ”all”?  paper (funding: Drive Sweden)
  • 5 feasibility studies (funded by VTI and summarised in here) about
    • Towards a digital twin of campus Valla for co-simulation of road users 
    • Exploring spatio-temporal accessibility in Lambohov: a pre-study. 
    • Data processing and visualization of mobile air quality measurements. 
    • Road surface unevenness and its impact on comfort and vibrations in low speed vehicles
    • Infrastructure needs at bus stops. 
  • The following studies were also presented at the conference. (funding in brackets):
    • Säkerhetsförarens uppmärksamhet och vakenhet (FFI)
    • The digital infrastructure of ELIN’s data collection (SHOW=EU)
    • Automated Vehicles as Social Agents: A Research Agenda (ELLIIT)
    • Cybersecurity of autonomous vehicles (Drive Sweden)
    • Digital guidance in public transport (funding: ERA-net)
    • Children’s perspective on future travels by autonomous bus (SHOW)
    • Autonomous shuttles for all – Experiences from children with intellectual disability (WASP-HS)
    • Game engine simulation of autonomous buses in a student project (LiU)
    • Ljudsignaler i interaktion mellan autonoma bussar och oskyddade trafikanter (LiU)
    • For more information and contact to project leaders, please get in touch with Ingrid Skogsmo (ingrid.skogsmo@vti.se)

Säkerhetskultur för automatiserade fordon. Målet för projektet Säkerhetskultur för automatiserade fordon är att utveckla metoder och verktyg för att kunna hantera säkerhetskulturen i organisationer som konstruerar och implementerar automatiserade fordon och maskiner. Projektet kommer att utforska befintlig säkerhetskultur och nya risker, samt utveckla mätinstrument för säkerhetskultur och pröva hur de kan appliceras på hållbarhet- och jämställdhetskultur. Säkerhetsfokus har länge legat på fordon och förare. Nu behövs organisationens och kundens betydelse lyftas fram. I projektet kommer därför en modell och verktyg utarbetas för att integrera säkerhetskultur i utvecklingsarbetet och för att stötta en lärandeprocess. Modellen utvecklas och utvärderas på två fallstudier från olika domäner, dels autonoma truckar samt automatiserade bussar i projektet Ride the future. En viktig aspekt av projektet är kunskaps och metodiköverföring mellan de olika tillämpningarna och mellan parterna VTI, RISE, Volvo GTT, Combitech och Toyota material handling. Projektet finansieras av Vinnovas FFI-program och genomförs på två år under ledning av VTI. Kontaktperson: Christina Stave (christina.stave@vti.se).

Studie om lastbil-VRU interaktioner inom FFI-projekt. Inom ramarna för FFI-finansierade projektet ”Externa interaktionsprinciper för förtroende och acceptans av tunga autonoma fordon” som bedrivs av Scania, RISE och Högskolan i Halmstad har doktoranden Victor Fabricius och kollegor publicerat en vetenskaplig tidskriftsartikel ”Interactions Between Heavy Trucks and Vulnerable Road Users—A Systematic Review to Inform the Interactive Capabilities of Highly Automated Trucks”. Artikeln syftar till att ge en översikt av den vetenskapliga litteraturen gällande dagens interaktioner mellan tunga lastbilar och oskyddade trafikanter – mer specifikt fotgängare och cyklister. En av insikterna från studien är att en stor del av interaktionen består av implicit kommunikation som till exempel fordons körsätt och rörelsemönster, och att den här typen av kommunikation i framtiden troligtvis kommer utgöra grunden även för interaktioner med automatiserade fordon. En annan insikt från studien är också att explicit kommunikation, i form av exempelvis ljussignaler på lastbilen i syfte att förtydliga lastbilens avsikter och handlingar, kan vara till nytta för interaktionerna. Utformning och nyttan av sådan kommunikation undersöks vidare i projektet som pågår fram till mitten av oktober 2022. Kontaktpersoner: Yanqing Zhang (yanqing.zhang@scania.com) och Daban Rizgary (daban.rizgary@ri.se)

Autonomous vehicle interactions in the hub. Scania, RISE, Boliden and Icemakers are working together in a research project “In the Hub – Samspel mellan operatörer och förarlösa fordon i framtidens transportsystem” funded by FFI. The aim is to investigate how natural interaction technologies can be integrated into autonomous transport systems to facilitate efficient and engaging experience in the hub contexts. An exploratory study have examined the potential of using verbal interaction and augmented reality (AR) to facilitate collaborations between professional human operators and unmanned self-driving heavy vehicles. Concepts that support operators in loading situations were designed and evaluated with forklift operators and rock-loading operators during a video-based study. Overall, the concepts received high scores in perceived efficiency and user experience. The results from the forklift operators supported the idea that more natural and social verbal interaction between operators and unmanned vehicles could lead to increased trust and acceptance compared to using simple voice commands. However, the results from the rock-loading operators showed that extensive use of voice interaction could become disturbing. The exploratory study thus supports the potential of using and further exploring verbal interaction and AR to facilitate human operators’ collaboration with self-driving vehicles, and the proposed concepts provide promising examples of interaction models for further investigation and implementation. The results have been presented in a paper which will be published in the conference “Applied Human Factors and Ergonomics” this year. Contact person: Yanqing Zhang (yanqing.zhang@scania.com) and Johan Fagerlönn (johan.fagerlonn@ri.se)

Heavy Automated Vehicle Operation Center (HAVOC) – Requirements and HMI design is a recently completed FFI-funded research project conducted by RISE and Scania with the following final project summary: Development trends suggest that, in spite of the optimistic announcements made by some stakeholders a few years ago, there are still technological challenges and regulatory constraints making heavy automated vehicles (HAVs) dependent on human control. Indeed, most HAV still require a human safety operator in the vehicle, and automated driving without a human “fallback” might be distant. At the same time, having a human safety operator in the vehicle jeopardises major anticipated benefits of HAVs – transport safety and efficiency. To bridge this gap, stakeholders are exploring remote operation technology, which enables HAV to be remotely operated by a human operator to some extent. The purpose of the HAVOC project was to study operator work and HMI for remote monitoring and control of heavy autonomous vehicles. The aim was to answer the following research questions:

  • What requirements are imposed on people and heavy vehicles for assessment, assistance, and driving?
  • What is required to scale the ratio between the number of operators and the number of monitored vehicles?
  • How should operator work be designed for transitions between assessment, assistance, and driving?
    A simulator was developed in Unity game engine with corresponding 3D-world and operator HMI to enable exploration of remote operation of ten vehicles in parallel. In a user study, 15 participants were invited to work for 1.5 hours and evaluate the system and work in terms of human-automation interaction. Human factors and HMI requirements were elicited for remote assessment, remote assistance, and remote driving operator tasks. The results show the importance of taking a systems perspective in developing and implementing remote operation control centers. See this link for an overview of the study and its results.
  • One of the major takeaways from the user study and the HAVOC project is the importance of a systems perspective in the analysis and design of future remote operation centers. The answer to questions such as “How many operators are needed?, How many vehicles can be monitored and controlled?, What is the best HMI?, What are the most important operator tasks?”  etc., will always rely on the dependencies between multiple human, technical and organizational factors. The ability to deal with the dependencies between factors such as operators’ skills and knowledge, operator tasks and training, HMI, vehicle capabilities, operational context, etc., lies in defining the envisioned work system and deciding what to design for. If a viable business case for remote operation is an operator:vehicle ratio of 1:1, 1:10 or 1:100 will place very different demands on overall human-automation systems design and work organisation. In this project, we have only considered single operator work. In a real application, teamwork between remote operators, traffic planners, and field personnel can be expected, further stressing the socio-technical systems approach. Contact person: Jonas Andersson (Jonas.andersson@ri.se)

Hyundai Mobis hälsobevakningssystem

Sydkoreanska bildelstillverkaren Hyundai Mobis har avslöjat ett hälsobevakningssystem vid namn Smart Cabin Controller som b.la följer förare och passagerares fysiologiska tillstånd [1].

Systemet består av en 3D kamera som upptäcker sittpositioner, en EKG-sensor som mäter hjärtats elektriska aktivitet, EEG-sensorer som mäter hjärnans elektriska aktivitet, samt en HVAC-sensor som mäter temperatur, luftfuktighet och koldioxidhalten i luften.

Tanken är att dessa mätvärden ska användas för att anpassa fordonets beteende till förare, passagerare och kabinmiljö, exempelvis att automatiserad körning aktiveras ifall föraren är stressad, eller att dra ner fönsterrutorna om luftkvalitén är dålig.

Källa

[1] Butcher, L., Autonomous Vehicle International. Hyundai Mobis develops comprehensive system to monitor drivers’ vital signs. 2022-06-24 Länk