Etikettarkiv: MIT

MIT:s studie om framtidens mobilitet

I en omfattande rapport (220 sidor!) från MIT kan man nu läsa om deras syn på framtidens mobilitet [1]. Det som presenteras och diskuteras i rapporten innefattar dagens utmaningar tillsammans med en prognos för framtiden avseende flera olika frågeställningar.

Rapporten behandlar frågor som hur klimatpolitiken kommer att påverka bränslepriser, hur statistik kring fordonsägande kommer att se ut i framtiden samt framtidens infrastruktur i storstäder i förhållande till autonoma fordon.

I rapporten presenteras en modell kring målet om att begränsa globala uppvärmningen till 2°C och hur det kan gå till. 

Framtidsvisionerna i relation till fordonsautomation tas upp med analyser kring några specifika punkter:

  • Förordningar som omfattar sensorkrav, pålitlighetskrav m.m. behöver komma på plats innan autonoma fordon kan användas som en möjlig form av mobilitet.
  • Allmänhetens attityder, som i dagsläget prognostiseras vara mest positiv från enbart några få målgrupper.
  • Mobilitettjänster, där billiga dörr-till-dörr mobilitetstjänster kommer att leda till högre energiförbrukning. 
  • Behovet av fjärroperatörer, där det endast blir ekonomiskt lönsamt om en operatör kan övervaka flera automatiserade fordon samtidigt.
  • Trängsel som resultat av ökad fordonsautomation. Det här erkänns vara diskutabelt i och med att även kollektivtrafik kan automatiseras, och den mest lovande lösningen uttrycks vara kollektivtrafik som står för de storskaliga transporterna. 

Egen kommentar

Fjärroperatörer som övervakar flera fordon, trots att det blir mer ekonomiskt lönsamt, kan bli en större utmaning från ett human factors perspektiv. Frågan är om fjärroperatörer behöver en övervakare, en ”säkerhetsoperatör”?

Källor

[1] MIT Energy Initiative. 2019. Insights into Future Mobility. Cambridge, MA: MIT Energy Initiative Länk

Hjälp i korsningar

En grupp forskare vid MIT och Toyota har utvecklat en ny modell som hjälper självkörande fordon i korsningar med sikthinder [1].

Modellen använder sin egen osäkerhet för att uppskatta risken för potentiella kollisioner eller andra trafikstörningar vid obevakade korsningar utan stoppskyldighet. Den väger in flera kritiska faktorer, inklusive visuella hinder i närheten, sensorbrus och fel, liksom hastigheten på andra bilar. Baserat på den beräknade risken kan modellen råda bilen att stanna, köra vidare i korsningen eller krypa framåt för att samla in mer data.

Modellen har utvärderats i ungefär 100 försök med fjärrstyrda miniatyrbilar som svängde vid en tät trafikerad korsning med sikthinder på en miniatyr. Dessa experiment involverade helt självkörande bilar och bilar med stödsystem. Resultaten visar att modellen hjälpte bilarna att undvika kollision i 70-100% av fallen. 

Enligt forskarna skiljer sig deras nya modell från liknande modeller som implementerats i samma fjärrstyrda miniatyrbilar som ibland inte kan fullborda en enda körning utan kollision.

Källor

[1] E&T Engineering and Technology. Autonomous vehicles get help to safely navigate tricky crossroads. 2019-11-05 Länk

Skuggdetektion

Forskare på MIT har utvecklat ett system som kan detektera små förändringar i skuggor på marken för att se om det finns ett rörligt objekt, till exempel en fotgängare, bakom hörnet [1].

Systemet, kallat ShadowCam, jämför ljusinstensiteten i skuggor i en videosekvens och klassificerar objekt som stillastående eller rörliga via en avancerad metod kallad “Direct Sparse Odometry” eller DSO.

Källa

[1] Rob Matheson: Helping autonomous vehicles see around corners, MIT News 2019-10-27 Länk

Neurala nätverk + video + radiovågor

Att anonymisera data är alltmer populärt och behövligt, speciellt när det gäller videodata som det kommer att finnas gott om i automatiserade fordon. En forskargrupp vid MIT har tagit fram en ny metod som av anonymiserar videodata genom att dra nytta av maskininlärning och radiovågor [1]. 

De har skapat en neural nätverksmodell som kan upptäcka vad människor gör i situationer där de syns dåligt eller är dolda bakom andra objekt. Grundidén är att spela in videobilder av samma scen med synligt ljus och radiovågor. Modellen korrelerar sedan videobilder med radiovågor och rörelserna återspeglas i form av en tredimensionell streckgubbe.

Här kan ni läsa mer detaljerad om det hela.

Källor

[1] MIT Technology Review. Machine vision has learned to use radio waves to see through walls and in darkness. 2019-10-09 Länk

Självkörande taxi får det tufft

I en ny artikel visas resultat från en MIT-studie där man kommit fram till att självkörande taxibilar, s.k. robot taxis, kommer att bli dyrare än vanliga. Detta på grund av dolda kostnader för bland annat underhåll, försäkring, fjärrövervakning och taxistillstånd [1].

Källa

[1] Edward Niedermayer: MIT Paper Tackles The Challenging Economics Of Autonomous Taxis, The Drive 2019-05-06 Länk

Detta har hänt: Del II – CES

Första bilen debuterade på Consumer Electronics Show (CES) för 20 år sedan, och då var allt annat i fokus förutom just bilar. Men under de senaste åren har CES blivit mer av en autoshow då allt fler aktörer från fordonsbranschen passar på att visa upp sina prototyper och offentliggöra sina planer och ambitioner där. Årets upplaga av CES som pågick förra veckan var inget undantag. Jag var inte med på plats men att tolka av det som publicerats i media fick just automatiserade och uppkopplade fordon en hel del uppmärksamhet, även om det kanske var något mindre om självkörande fordon än förra året. Dessvärre verkar det som att ingen av aktörerna visat något riktigt nytt och revolutionerande, något som kan komma att förändra världen. Många har visat skyttlar och lösningar kopplade till mobilitetstjänster för varor och passagerare. Mycket igenkänning av aktiviteter och emotioner samt igenkänning av gester. Förvånansvärt lite fokus på röststyrning – men det betyder nog inte att man lämnat det spåret, bara att nyhetsvärdet avtagit. Som vanligt är mycket av det som visats på koncept- och mockupstadium oftast långt ifrån produktion men det finns undantag. 

Här är en översikt av det som visats där så får ni själva avgöra om mina slutsatser stämmer eller ej.

  • Veoneers Liv 3.0. Autolivs avknoppning Veoneer valde att fokusera på Collaborative Driving, något som företaget anser vara av stor vikt då de förutspår att de flesta fordon sålda år 2030 kommer erbjuda delad interaktion med mänskliga förare. Flera tekniska lösningar, som Pilot Assist Level 2+, framåt-tittande kameror, 5G och superdatorn Zeus, var integrerade i forskningsfordonet Liv 3.0 och kunde prövas på en avlyst bana. Dessa lösningar har utvecklats i samarbete med bl a Zenuity, Ericsson och MIT. Värt att notera här att Veoneer precis vunnit ett kontrakt med en global biltillverkare gällande konstruktion och produktion av ett nytt lidarsystem (tillverkad av Velodyne) för automatiserade bilar. Länk Film
  • Smart Eyes övervakning. Göteborgsbaserade Smart Eye visade sin teknologi för övervakning av föraren och igenkänning av trötthet och ouppmärksamhet. Detta gjordes i samarbete med NXP. En annan nyhet är att Smart Eye inleder samarbete med Ambarella, utvecklare av högupplösta videofilmer och halvledare för datorseende.  Länk Länk
  • Mercedes och Nvidia. Förra året började MB och Nvidia samarbeta kring ”cockpit of the future”. Nu ska företagen utöka samarbetet med optimering av AI och självkörande funktioner. Länk
  • Mercedes Urbanetic Van. Som vi rapporterat om innan är Urbanetic Van en plattform som går att nyttja för både transport av gods och passagerare, beroende på vilken kaross som man använder. Den har ingen ratt utan är tänkt att vara helt självkörande. På CES visades prototypen för transport av passagerare och betoningen var på ”informed trust”, dvs. hur man kan skapa tillit till det självkörande fordonet både mot egna passagerare och mot andra trafikanter. Länk
  • Yandex. En rysk jätte som vi skrivit om vid ett par tillfällen. Det som är mest spännande med dem är att de lyckats demonstrera sitt självkörande system i verklig trafik i Las Vegas. Gatorna var så klart kartlagda i förväg. Här kan ni se en journalists resa i Yandex-bil.
  • Nissans ”Invisible-to-Visible”. Genom att använda teknik för förstärkt verklighet har Nissans Intelligent Mobility möjliggjort för förarna och passagerarna att se det osynliga. Det är en interaktiv tredimensionell interaktion inne i fordonet hopkopplad med SAM (Seamless Autonomous Mobility) som analyserar data om fordonet och dess omgivning. Länk
  • Kias R.E.A.D. I sitt pressmeddelande skriver Kia att de förbereder sig för ”post autonomous driving era”. Som en del i detta presenterade företaget sitt Real-time Emotion Adaptive Driving (R.E.A.D.) System, som kan optimera och personifiera kabinutrymmet genom att analysera förarens emotionella tillstånd i realtid med hjälp av AI-baserad biosignaligenkänningsteknik. Systemet har utvecklats i samarbete med MIT. Länk
  • Bosch IoT Concept. Bosch valde att demonstrera mjukvara för delade mobilitetstjänster i form av en självkörande skyttel. Resenärerna kan beställa resan via en app som sedan parar dem ihop med andra resenärer som ska åt samma håll. Appen kan användas för att boka en specifik plats, låsa upp skytteln och få påminnelse om man glömt något i skytteln. Länk
  • Aisin Type C. Aisin Seiki som delvis ägs av Toyota är känt för att utveckla olika fordonskomponenter alltifrån bromsar till batterier. Men under CES visade Aisin Seiki upp två konceptfordon kallade ”i-mobility TYPE C”: en automatiserad personbil och en automatiserad limousine där sätena svänger för att hälsa på passagerare! Det finns ett framåtriktat förarsäte och fordonen kan framföras av en mänsklig förare. Konceptet inkluderar olika förarstödsfunktioner däribland Driver Monitoring System och Facial Action Coding SystemLänk
  • Densos framtida mobilitet. Denso visade också ett skyttel-liknande fordon, Urban Moves, och i den fanns allt från molntjänster till informationssäkerhetslösningar baserade på block chain, logistiktjänster, system för övervakning av förare och system för hantering av fordonsflottor. Länk
  • Continentals CUbE och leveransrobotar. CUbE är egentligen Continentals egna anpassning av EasyMiles skyttel. Hittills har vi sett den för transport av passagerare och nu visades hur den kan användas för leverans av gods i samarbete med små leveransrobotar som distribuerar paket till slutkunden. Tänk er: en robot i form av en hund som springer runt omkring med paket på ryggen. Länk
  • AEV Robotics fordonskoncept MVS. Detta är ett fordonskoncept som är likt Mercedes och Toyotas: ett modulärt fordon med utbytbar kaross. Det är svårt att säga vad som är unikt med det, mer än att det utvecklats av ett australienskt startupp-företag som hittills arbetat i tysthet. Länk
  • Surf ‘N Curve från BCS Automotive Interface Solutions. BCS är inget företag som man läser om i media varje dag. Vanligtvis utvecklar fordonskomponenter men på CES visade de ett fordonskoncept som de döpt till Surf ‘N Curve. Det påstås ha en holistisk interiördesign och när den inte kör själv kan föraren styra den med hjälp av två joystickar. Länk
  • ZFs och e.Go People Mover. Tyska ZF visade en mikrodator kallad ZF ProAI RoboThink som de beskriver som ”the most powerful AI-capable supercomputer in the mobility industry”. De visade också i samarbete med e.Go ett skyttelfordon som är redo för marknadsintroduktion och som fått en första kund, Transdev. Länk
  • Hyundai Mobis Concept. Här ligger fokus på framtida interaktion och upplevelse. Konceptfordonet är utrustat med system för rörelseigenkänning (läs: virtuell touch), system för igenkänning av känslor samt vindrutor som fungerar som skärmar. Utöver det är det utrustat med “Communication Lighting Concept” som möjliggör för det automatiserade fordonet att kommunicera med fotgängare via ljussignaler. Länk
  • Baidus Apollo 3.5. Nu är en ny version av Baidus öppna plattform tillgänglig. Utöver det betonade Baidu att de kommer att testa 100 st robo-taxis under 2019 i Changsha i Kina. Länk
  • Toyotas Guardian. När Toyotas system för automatiserade körning kallat Guardian blir redo för marknadsintroduktion inom ett par år kommer det vara tillgängligt för andra aktörer. Detta är intressant då vi inte sett sådana ambitioner från andra traditionella fordonstillverkare. Länk
  • IBMs AI-assistent Watson. IBM demonstrerade Watson, kanske mest känd för allmänheten som schack-dator, som assistent för resenärer att kommunicera med självkörande skyttlar. Problemet man vill lösa är att man kanske kommer att åka i många olika typer av skyttlar som har olika användargränssnitt. Med Watson kan man få hjälp, ungefär som med Google Assistant. Länk
  • Bytons M-Byte. Ett stort pressuppbåd följde visningen av den elbilen M-Byte från kinesiska startup-bolaget Byton. Bilen, som är designad för självkörning på Nivå 3 enligt SAE-skalan, fick kanske störst uppmärksamhet för den gigantiska 49″-skärmen framför framstolarna. Länk

Detektion av dolda objekt

Detektion av objekt som är dolda exempelvis bakom gatuhörn är en utmaning som fordonsbranschen brottats med länge. I en studie utförd vid MIT har man föreslagit en ny algoritm som utifrån videodata detekterar dolda rörliga objekt [1].

Den nya algoritmen som går under namnet ShadowCam detekterar skuggorna av dolda objekt och klassificerar dessa objekt som ”dynamiska” eller ”statiska”. Den genomsnittliga klassificeringsnoggrannheten på simulerade data är ca 80% och på verkliga data ca 70%.

ShadowCam-algoritmen och datasetet som innehåller simulerade och verkliga finns att tillgå under öppen källkodslicens.

Källor

[1] Naser et al., 2018. ShadowCam: Real-Time Detection Of Moving Obstacles Behind A Corner For Autonomous Vehicles. 21st IEEE International Conference on Intelligent Transportation Systems, 4-7 November, 2018 Länk

Inspiration: 3D printade båtar

En grupp forskare vid MITs Computer Science and Artificial Intelligence Laboratory (CSAIL) och Senseable City Lab inom Department of Urban Studies and Planning (DUSP) har utvecklat förarlösa båtar som erbjuder hög manövrerbarhet och noggrann kontroll [1].

Dessutom kan båtarna skrivas ut med hjälp av en billig 3D-skrivare vilket bäddar för massproduktion.

Här kan ni se en illustration av idén.

Källor

[1] Matheson, R., MIT News. Fleet of autonomous boats could service some cities, reducing road traffic. 2018-05-23 Länk

Navigation utan 3D karta

En grupp forskare vid MITs Computer Science and Artificial Intelligence Laboratory (CSAIL) har utvecklat en lösning som möjliggör för automatiserade fordon att navigera utan att ha tillgång till detaljerad 3D karta av omgivningen [1].

Med den nya lösningen som kallas MapLite kan automatiserade fordon klara obekanta vägar genom att enbart använda GPS och inbyggda sensorer.

Först definierar MapLite ett slutmål och ett “lokalt navigeringsmål” som behöver vara i fordonets nuvarande vy. Sedan skapas en sökväg till målet med hjälp av inbyggda sensorer som lidar. Ett viktigt antagande som görs är att vägen kommer att vara plattare än omgivande områden. MapLite inkluderar också parametriserade modeller som beskriver likartade situationer. En modell kan exempelvis beskriva vad fordonet ska göra vid korsningar eller hur den ska agera på en viss typ av väg.

Enligt forskarna är bergsvägar den största utmaningen eftersom systemet har problem med att handskas med dramatiska höjdförändringar.

Forskningen görs i samarbete med  Toyota Research Institute (TRI)  som har bland annat försett forskarna med en Toyota Prius som de använder i sina tester.

Egen kommentar

Det finns å andra sidan förstås goda skäl till att självkörande bilar matas med information från detaljerade 3D kartor, och det är att teknologin blir tillförlitlig på ett helt annat plan. Men den nya lösningen är självklart lovande och skulle underlätta navigeringen av automatiserade fordon betydligt.

Källor

[1] Conner-Simons, A., Gordon, R., MIT News. Self-driving cars for country roads. 2018-05-07 Länk