Kategoriarkiv: Artificiell intelligens

Kyocera förbättrar objektdetektion

Det japanska elektronikföretaget Kyocera Corporation har utvecklat ett sensorsystem som möjliggör bättre mörkerseende, för tillämpning i automatiserade fordon [1].

Systemet använder olika ljus så som RGB, nära infrarött, samt laser, tillsammans med AI-mjukvara som analyserar ljusinformationen för att klassificera olika objekt.

En annan metod som de tillämpar, för att förbättra objektdetektion, är att automatisera träningen av AI-mjukvaran, vilket också minskar kostnaden av utvecklingen jämfört med att träna mjukvaran på manuellt insamlad data.

Det finns en video på tekniken här.

Källa

[1] Baker, E., Autonomous Vehicle International. Kyocera develops AI-powered night vision system. 2022-11-21 Länk

Waabis självkörande teknologi

Det nya startupföretaget från Toronto vid namn Waabi har annonserat sitt självkörande system Waabi Driver som kan förvandla lastbilar till autonoma [1].

Produkten ska bestå av all hårdvara och mjukvara som krävs för att göra en lastbil autonom, och enligt företaget är systemet enkelt att utrusta och tar lite plats.

Teknologin har tränats i Waabis egna simulator vid namn Waabi World, som vi skrivit om tidigare här. Företaget tillämpar en metod som kräver mindre handpåläggning i träningen och är därför billigare och enklare att skala upp.

Vi har tidigare skrivit om Waabi här.

Källa

[1] Hawkins, A. J., The Verge. Waabi announces ‘plug-and-play’ autonomous trucking solution. 2022-11-16 Länk

Lösning för förbättrat maskinseende

Forskare ifrån Japanska forskningsinstitutet RIKEN Center for Brain Science (CBS) meddelar att de utvecklat maskinseende-teknik som har snabbare och mer tillförlitligt objektdetektering än dagens teknik [1].

Man har baserat lösningen på det mänskliga perceptionssystemet där information om ögats rörelser bearbetas när vi och världen runt omkring oss rör på sig. Forskarna kallar detta för motor copies som skickas till hjärnan för att stabilisera synfältet.

Forskarna utvärderade ett neuralt nätverk som på liknande sätt räknade in ögonrörelser och upptäckte en signifikant förbättring i prestation vid objektklassificering.

Nästa steg är att implementera den här lösningen i en kiselbaserad krets för att undersöka hur väl den fungerar i verklig tillämpning.

Källa

[1] James, A., Autonomous Vehicle International. Mimicking ‘eye’ movements could be key to better self-driving cars. 2022-07-01 Länk

Guldkorn från svensk forskning

Det här är svenska guldkorn från er läsare. Tack för ert fantastiska jobb.

Autonoma leveransfordon i interaktion. Inom projektet GLAD (Goods deliveries under the LAst mile with autonomous Driving vehicles) genomfördes under maj månad en användarstudie där en ADV (Automated Delivery Vehicle) utrustad med s.k. eHMI:er (visuella medel som kommunicerar till människor i omgivningen) körde en kortare rutt. Syftet var att utvärdera hur individer uppfattade och förstod eHMI:erna i olika situationer, samt hur de kan utvecklas. Preliminära resultat indikerar att eHMI:erna i sig inte kommunicerade sina specifika budskap, men att de i sina givna sammanhang blev begripliga. Resultaten visade även på tydliga inlärningseffekter, d.v.s. deltagarna lärde sig snabbt eHMI:ernas budskap. Projektet är finansierad av Trafikverket och utförs av RISE, Clean Motion, Aptiv, Combitech och Högskolan i Halmstad. Kontakt: Mikael Söderman, RISE, (mikael.soderman@ri.se)

Förstudie SMART-projektet. Som en del av det EU-finansierade SMART-projektet genomför RISE en förstudie kring förutsättningarna för att komplettera kollektivtrafiken med förarlösa tjänster i Skaraborg. Projektet leds av Destination Läckö/Kinnekulle som är ett kommunalt bolag ägt av Götene och Lidköping. Preliminära resultat visar att det i några av tätorterna finns intressanta systemeffekter värda att studera närmare men att det är svårt att hitta lämpliga lösningar för lite längre avstånd mellan kollektivtrafikens hållplatser och populära utflyktsmål eller uppför Kinnekulles de branta vägar. Det finns också sträckor i området där det antagligen finns en marknad för kommersiella tjänster med manuellt framförda fordon. Kontakt: Håkan Burden, RISE, (hakan.burden@ri.se)

Generering av dimma och väderklassificering. RISE och Veoneer har under våren 2022 genomfört en förstudie ”Dimhöljt” för lära hur dimma kan skapas i klimatkammare. Syftet med den genererade dimman är att testa lidar, t ex för att filtrera bort störningar, för att validera simuleringsmodeller, för att verifiera sensorprestanda eller för att verifiera att en funktion är inom ODD. Det finns i princip tre olika sätt att slå sönder vatten till fina droppar: med vibrationer, med trycksatt vatten eller med tryckluft; man kan även generera dimma genom att kondensera ånga. Dimma är våta aerosoler i storleksordning från våglängden av synligt ljus till en faktor 20-50 ggr större. Projektet har också undersökt hur mätning av dimmans karaktäristik utförs på lämpligt sätt. Mätningar måste bland annat inkludera storleksfördelning av partiklar och mängden vatten i flytande form. Det är viktigt att skapa repeterbart testsystem med dimma. I projektet studerades därtill hur man med en lidar kan klassificera vädertyper såsom dimma, regn, snö, klart väder. Studien baserades på mätningar utomhus och i klimatkammare. De inledande försöken har varit framgångsrika och tanken är att förstudien ”Dimhöljt” följs av en fördjupad ansats. Förstudien delfinansierades av Vinnova/FFI, 2021-02582. Kontakt: Martin Sanfridson, RISE, (martin.sanfridson@ri.se)

Autonoma fordon för blinda, döva och dövblinda. I en nyligen publicerad journalartikel vid namn ”Vibrotactile guidance for trips with autonomous vehicles for persons with blindness, deafblindness, and deafness” presenteras resultat från Drive Sweden projektet ”Guidning till autonoma fordon för blinda, döva och dövblinda”. Studien visar bland annat på vikten av att beakta användarperspektivet för hela resan, inte bara fordonet i sig. Artikeln finns att läsa här. Kontaktperson Jonas Andersson (jonas.andersson@ri.se)

Best student paper på IEEE konferens. Vid konferensen IEEE Intelligent Vehicles Symposium vann doktoranden José Manuel Gaspar Sánchez och industridoktoranden Truls Nyberg från KTH och Scania första pris i kategorin ”Best student paper” med artikeln ”Foresee the Unseen: Sequential Reasoning about Hidden Obstacles for Safe Driving”. I samarbete mellan KTH och Scania har studenterna utarbetat en algoritm för autonoma fordon för att hantera skymda trafikanter på ett säkert och effektivt sätt. Forskningen har finansierats genom Vinnovas center TeCOSA och forskningsprogrammet WASP.
Andra pris i kategorin gick till industridoktoranden Magnus Gyllenhammar vid KTH och Zenseact för artikeln ”Uncertainty Aware Data Driven Precautionary Safety for Automated Driving Systems Considering Perception Failures and Event Exposure”, också den finansierad genom WASP. Kontaktperson Truls Nyberg (truls.nyberg@scania.com)  & Magnus Gyllenhammar (gyllenhammar@zenseact.com). 

Syntetisk data för validering. En vanlig utmaning inom maskininlärning är att ta fram realistisk data både för att träna sina nätverk samt för att validera dem. I dag är en vanlig metod att samla in data i den miljö där nätverket ska appliceras, t.ex. i trafiken, och sedan hoppas att det resulterande datasetet ska vara representativt. Detta är tyvärr sällan fallet eftersom att det är svårt att få med alla tänkbara scenarion. Inom FFI-projektet DIFFUSE utvecklas metoder för att skapa syntetisk data och bilder primärt för valideringssyften. Tanken är att förbättra de maskininlärningsmetoder som i dagsläget bara i begränsad omfattning ger kontroll över vad den resulterande bilden innehåller. Kontaktperson Martin Torstensson (martin.torstensson@ri.se)

Future mobility services in Ride the future-project. Ride the future is a multi-brand pilot where 8 partners join forces in running three autonomous buses along a 4 km route in Linköping’s Valla district. The partners are VTI, Linköping University, Linköping Science Park, Transdev Sweden AB, Östgötatrafiken, Linköpings kommun, Akademiska Hus and RISE. The area includes residential housing, businesses and the campus of Linköping University (LiU). 
Ride the future is furthermore one of the sites in the larger Horizon 2020-project called SHOW (SHared automation Operating models for Worldwide adoption), and a platform for several projects related to future mobility solutions. To date over 20 studies and research projects – completed and ongoing – are related to Ride the Future. A result conference was held 26 April and presented findings about the following topics:

  • Lessons learned from setting up a demonstration site with autonomous shuttle operation; paper (funding: SHOW)
  • Mobility for all – but who is ”all”?  paper (funding: Drive Sweden)
  • 5 feasibility studies (funded by VTI and summarised in here) about
    • Towards a digital twin of campus Valla for co-simulation of road users 
    • Exploring spatio-temporal accessibility in Lambohov: a pre-study. 
    • Data processing and visualization of mobile air quality measurements. 
    • Road surface unevenness and its impact on comfort and vibrations in low speed vehicles
    • Infrastructure needs at bus stops. 
  • The following studies were also presented at the conference. (funding in brackets):
    • Säkerhetsförarens uppmärksamhet och vakenhet (FFI)
    • The digital infrastructure of ELIN’s data collection (SHOW=EU)
    • Automated Vehicles as Social Agents: A Research Agenda (ELLIIT)
    • Cybersecurity of autonomous vehicles (Drive Sweden)
    • Digital guidance in public transport (funding: ERA-net)
    • Children’s perspective on future travels by autonomous bus (SHOW)
    • Autonomous shuttles for all – Experiences from children with intellectual disability (WASP-HS)
    • Game engine simulation of autonomous buses in a student project (LiU)
    • Ljudsignaler i interaktion mellan autonoma bussar och oskyddade trafikanter (LiU)
    • For more information and contact to project leaders, please get in touch with Ingrid Skogsmo (ingrid.skogsmo@vti.se)

Säkerhetskultur för automatiserade fordon. Målet för projektet Säkerhetskultur för automatiserade fordon är att utveckla metoder och verktyg för att kunna hantera säkerhetskulturen i organisationer som konstruerar och implementerar automatiserade fordon och maskiner. Projektet kommer att utforska befintlig säkerhetskultur och nya risker, samt utveckla mätinstrument för säkerhetskultur och pröva hur de kan appliceras på hållbarhet- och jämställdhetskultur. Säkerhetsfokus har länge legat på fordon och förare. Nu behövs organisationens och kundens betydelse lyftas fram. I projektet kommer därför en modell och verktyg utarbetas för att integrera säkerhetskultur i utvecklingsarbetet och för att stötta en lärandeprocess. Modellen utvecklas och utvärderas på två fallstudier från olika domäner, dels autonoma truckar samt automatiserade bussar i projektet Ride the future. En viktig aspekt av projektet är kunskaps och metodiköverföring mellan de olika tillämpningarna och mellan parterna VTI, RISE, Volvo GTT, Combitech och Toyota material handling. Projektet finansieras av Vinnovas FFI-program och genomförs på två år under ledning av VTI. Kontaktperson: Christina Stave (christina.stave@vti.se).

Studie om lastbil-VRU interaktioner inom FFI-projekt. Inom ramarna för FFI-finansierade projektet ”Externa interaktionsprinciper för förtroende och acceptans av tunga autonoma fordon” som bedrivs av Scania, RISE och Högskolan i Halmstad har doktoranden Victor Fabricius och kollegor publicerat en vetenskaplig tidskriftsartikel ”Interactions Between Heavy Trucks and Vulnerable Road Users—A Systematic Review to Inform the Interactive Capabilities of Highly Automated Trucks”. Artikeln syftar till att ge en översikt av den vetenskapliga litteraturen gällande dagens interaktioner mellan tunga lastbilar och oskyddade trafikanter – mer specifikt fotgängare och cyklister. En av insikterna från studien är att en stor del av interaktionen består av implicit kommunikation som till exempel fordons körsätt och rörelsemönster, och att den här typen av kommunikation i framtiden troligtvis kommer utgöra grunden även för interaktioner med automatiserade fordon. En annan insikt från studien är också att explicit kommunikation, i form av exempelvis ljussignaler på lastbilen i syfte att förtydliga lastbilens avsikter och handlingar, kan vara till nytta för interaktionerna. Utformning och nyttan av sådan kommunikation undersöks vidare i projektet som pågår fram till mitten av oktober 2022. Kontaktpersoner: Yanqing Zhang (yanqing.zhang@scania.com) och Daban Rizgary (daban.rizgary@ri.se)

Autonomous vehicle interactions in the hub. Scania, RISE, Boliden and Icemakers are working together in a research project “In the Hub – Samspel mellan operatörer och förarlösa fordon i framtidens transportsystem” funded by FFI. The aim is to investigate how natural interaction technologies can be integrated into autonomous transport systems to facilitate efficient and engaging experience in the hub contexts. An exploratory study have examined the potential of using verbal interaction and augmented reality (AR) to facilitate collaborations between professional human operators and unmanned self-driving heavy vehicles. Concepts that support operators in loading situations were designed and evaluated with forklift operators and rock-loading operators during a video-based study. Overall, the concepts received high scores in perceived efficiency and user experience. The results from the forklift operators supported the idea that more natural and social verbal interaction between operators and unmanned vehicles could lead to increased trust and acceptance compared to using simple voice commands. However, the results from the rock-loading operators showed that extensive use of voice interaction could become disturbing. The exploratory study thus supports the potential of using and further exploring verbal interaction and AR to facilitate human operators’ collaboration with self-driving vehicles, and the proposed concepts provide promising examples of interaction models for further investigation and implementation. The results have been presented in a paper which will be published in the conference “Applied Human Factors and Ergonomics” this year. Contact person: Yanqing Zhang (yanqing.zhang@scania.com) and Johan Fagerlönn (johan.fagerlonn@ri.se)

Heavy Automated Vehicle Operation Center (HAVOC) – Requirements and HMI design is a recently completed FFI-funded research project conducted by RISE and Scania with the following final project summary: Development trends suggest that, in spite of the optimistic announcements made by some stakeholders a few years ago, there are still technological challenges and regulatory constraints making heavy automated vehicles (HAVs) dependent on human control. Indeed, most HAV still require a human safety operator in the vehicle, and automated driving without a human “fallback” might be distant. At the same time, having a human safety operator in the vehicle jeopardises major anticipated benefits of HAVs – transport safety and efficiency. To bridge this gap, stakeholders are exploring remote operation technology, which enables HAV to be remotely operated by a human operator to some extent. The purpose of the HAVOC project was to study operator work and HMI for remote monitoring and control of heavy autonomous vehicles. The aim was to answer the following research questions:

  • What requirements are imposed on people and heavy vehicles for assessment, assistance, and driving?
  • What is required to scale the ratio between the number of operators and the number of monitored vehicles?
  • How should operator work be designed for transitions between assessment, assistance, and driving?
    A simulator was developed in Unity game engine with corresponding 3D-world and operator HMI to enable exploration of remote operation of ten vehicles in parallel. In a user study, 15 participants were invited to work for 1.5 hours and evaluate the system and work in terms of human-automation interaction. Human factors and HMI requirements were elicited for remote assessment, remote assistance, and remote driving operator tasks. The results show the importance of taking a systems perspective in developing and implementing remote operation control centers. See this link for an overview of the study and its results.
  • One of the major takeaways from the user study and the HAVOC project is the importance of a systems perspective in the analysis and design of future remote operation centers. The answer to questions such as “How many operators are needed?, How many vehicles can be monitored and controlled?, What is the best HMI?, What are the most important operator tasks?”  etc., will always rely on the dependencies between multiple human, technical and organizational factors. The ability to deal with the dependencies between factors such as operators’ skills and knowledge, operator tasks and training, HMI, vehicle capabilities, operational context, etc., lies in defining the envisioned work system and deciding what to design for. If a viable business case for remote operation is an operator:vehicle ratio of 1:1, 1:10 or 1:100 will place very different demands on overall human-automation systems design and work organisation. In this project, we have only considered single operator work. In a real application, teamwork between remote operators, traffic planners, and field personnel can be expected, further stressing the socio-technical systems approach. Contact person: Jonas Andersson (Jonas.andersson@ri.se)

MIT lanserar VISTA 2.0

Forskare ifrån amerikanska universitetet MIT har lanserat nya versionen av sin simulator för utveckling av automatiserad körteknologi, vid namn VISTA 2.0 [1].

Simulatorn vars källkod är öppet tillgänglig har förmågan att använda sensordata från den verkliga världen och omvandla det till fotorealistiska digitala miljöer. Dessa miljöer kan sedan användas för att träna neurala nätverk på att handskas med olika trafiksituationer.

Vi skrev om när första versionen av den här simulatorn lanserades här.

Källa

[1] Wessling, B., The Robot Report. MIT CSAIL releases open-source simulator for autonomous vehicles. 2022-06-22 Länk

Förstärkningsinlärning effektiviserar trafiksignaler 

Forskare vid Aston University i Birmingham har utvecklat en ny AI-baserad metod för att styra trafiksignaler i korsningar [1].

Lösningen bygger på förstärkningsinlärning (Eng: reinforcement learning) som belönar signalscheman som maximerar fordonsflödet. AI-lösningen visade sig bättre än samtliga manuellt designade alternativ [2].

Lösningen tränades med hjälp av en digital skugga, dvs. en enkelriktad digital tvilling. Kameradata från ett liveflöde matades i en egenutvecklad simulator och olika signalscheman jämfördes. Forskarna hoppas kunna styra trafiksignaler i en verklig korsning innan året är slut.

Egen kommentar 

Trafikstockningarna i Storbritanniens urbana områden bedöms kosta den genomsnittliga trafikanten motsvarande över 10 000 kr i bränsle- och tidsförlust. Bristfällig styrning med trafiksignaler anses vara en avgörande orsak. Användning av förstärkningsinlärning för att optimera trafiksignaler är lovande, eftersom det inte kräver mänskligt annoterade träningsdata – vilket ofta blir en flaskhals vid övervakad inlärning (Eng: supervised learning). Forskarnas förslag bör därmed kunna skala bättre till olika korsningar efter hand som fler digitala skuggor blir tillgängliga.

Källa 

[1] AI traffic light system could make traffic jams a distant memory. 2022-05-11 Länk 

[2] Garg et al, In Proc. the 21st International Conference on Autonomous Agents and Multiagent Systems, pp. 454-462, May 2022 Länk

Wayve:s samarbete med Microsoft

Brittiska teknikutvecklarna Wayve har erbjöd inblick i deras samarbete med Microsoft. Samarbetet går ut på att lagra, hantera och göra beräkningar på stora mängder videodata med hjälp av Azure, Microsofts molntjänst [1].

Wayves strategi för AD ”AV2.0” är huvudsakligen baserad på kameradata och vad de kallar ”ren maskininlärning”: Systemet ges så få förutbestämda regler som möjligt och matas med stora mängder data att träna på.

Ur samarbetet får Microsoft ett användarfall som utmanar deras molntjänsts och förbereder den för uppskalning av autonoma fordon.

Egen kommentar

Tillvägagångssättet som Wayve förespråkar för utveckling av självkörande teknologi kallas ibland för end-to-end driving och har blivit mer och mer populärt. En anledning är att det tar bort behovet av manuell dataannotering och att den har en enklare arkitektur jämfört med till exempel modular pipelines [2].

End-to-end driving kan förenklat beskrivas göra alla körrelaterade uppgifter till en enda generell uppgift medan modular pipelines delar upp körrelaterade uppgifter i mindre beståndsdelar.

Källa

[1] Anadiotis, G., Venture Beat. Wayve and Microsoft partner to scale autonomous vehicles. 2022-05-18 Länk

[2] Xiao et al, IEEE Transactions on Intelligent Transportation Systems. Multimodal End-to-End Autonomous Driving. 2020-08 Länk

Samarbete för nästa generation perceptionssystem

Teknikföretaget Untethered AI som utvecklar datorseendeteknik för automatiserade fordon meddelar att de ska samarbeta med General Motors (GM) för att utveckla och demonstrera ett nästa generation perceptionssystem [1].

Arbetet är delfinansierat av Government of Ontario genom Ontario Vehicle Innovation Network (OVIN) med en summa på 1 miljon USD. I samarbetet ska man nyttja Untethered AIs at-memory computation teknik som kan bidra till målet om snabbare beräkningar med mindre resurser i perceptionssystem.

Källa

[1] Unthethered AI. Business Wire. Untether AI and General Motors to Develop Next-Generation Autonomous Vehicle Perception Systems. 2022-04-28 Länk

Synthesis AIs öppna delningsplattform

Kalifornien-baserade startupföretaget Synthesis AI har skapat en öppen delningsplattform för maskininlärning och datorseende vid namn OpenSynthetics [1].

Plattformen är öppen för forskar- och industrianvändare som ska kunna dela med sig och ta del av data, vetenskaplig litteratur och kod. Syftet med plattformen är att ge möjligheter för utvecklare av machine-learning teknik att träna och avancera sina algoritmer med hjälp av varandra.

Källa

[1] Butcher, L., Autonomous Vehicle International. Open community for synthetic data development goes live. 2022-04-19 Länk

Cruise får ett rejält tillskott i kassan

Teknikföretaget Cruise som utvecklar autonoma fordon meddelade på tisdagen att SoftBank Group Corps Vision Fund har gått med på att investera ytterligare 1,35 miljarder dollar för att kunna lansera kommersiell robottaxi i San Francisco [1, 2].

Cruise, som till största del ägs av General Motors, har starkt ekonomiskt stöd från sina investerare inklusive Honda och Microsoft. Under 2018 investerade SoftBank Vision Fund 900 miljoner dollar i den San Francisco-baserade startupen och tog på sig att investera ytterligare 1,35 miljarder dollar när robotaxibilarna var redo för kommersiell driftsättning, vilket vid den tidpunkten var planerat till 2019.

Cruise öppnar också upp väntelistan för allmänheten att kunna registrera sig för gratisturer i San Francisco. De fick tillstånd för att testa utan säkerhetsförare på allmän väg i San Fransisco i höstas, vilket vi skrev om här.

Egen kommentar

Stora summor investeras och förväntningarna på robotaxi är höga. Waymo har exempelvis kört tusentals turer med förarlösa fordon i Phoenix, men den breda introduktionen dröjer. Cruise väntar fortfarande på tillstånd ifrån Kaliforniens Public Utilities Commission för att få ta betalt ifrån förarlösa turer i San Fransisco, och även när de får tillstånd i Kalifornien går det inte än att skala upp till övriga stater utan ett nationellt regelverk.

Källor

[1] Lee, J. H., & Jin, H., Cruise to raise $1.35 bln from SoftBank as it readies robotaxis. 2022-02-02 Länk

[2] Shephardson, D., Jin, H., & White, J., Self-driving car companies zoom ahead, leaving U.S. regulators behind. 2022-02-02 Länk