Etikettarkiv: MIT

Kommer självkörande taxi vara billigare och bra för alla?

Nej, snarare tvärtom. I alla fall enligt en ny studie från en grupp forskare från Harvard, MIT och McGill University som kommit fram till att hela konceptet med självkörande taxi kommer att bli dyrare i fattiga delar av samhället än att äga en konventionell bil. 

Forskarna jämförde kostnaderna för en resa med en självkörande taxi och att äga en konventionell begagnad bil i stadsmiljö. De tog hänsyn till bilkostnaderna så som inköp, registrering, skatt, försäkring, rutinmässigt underhåll och drivmedel. Slutsatsen blev att självkörande taxibilar skulle kosta minst 1,58 dollar per 1,6 km (eller en amerikansk mil), medan den totala kostnaden för traditionellt fordonsägande blev 52 cent per 1,6 km. Dessa uppskattningar är baserade på data från San Francisco.  

Studien är publicerad under titel The Price Isn’t Right: Autonomous Vehicles, Public Health, and Social Justice och finns att tillgå i sin helhet här.

På tal om taxi så kan ni passa på att se en taxifilm.

Smått och gott

Zoox och Tesla hittat en lösning. Förra året lämnade Tesla in en stämningsansökan mot Zoox där fyra f.d. Tesla-anställda som numera arbetar för Zoox anklagades att ha lämnat över konfidentiell information till sin nya arbetsgivare. Men nu verkar de ha hittat en lösning utan att behöva gå till en rättegång: Zoox kommer att betala en okänd summa till Tesla. Länk

Självkörande fordon ”flera decennier bort”. I alla fall enligt professor Bryan Reimer från MIT som forskar i transport och logistik. Han menar att helt självkörande bilar ställer stora krav på både teknikutvecklingen och på infrastrukturella förändringar och kan därmed vara ”flera decennier bort”. Länk

Varför är självkörande fordon fula? Ja, det kan man verkligen undra. Enligt BMWs designchefen Domagoj Dukec är det svårt att hitta en bra balans mellan sitt designarv som hos många sitter så djupt och ett nytt designspråk som tar hänsyn till system för självkörande fordon. Länk

MITs nya simulator

Forskare från Massachusetts Institute of Technology (MIT) har tillsammans med forskare från Toyota publicerat en studie där de visar potentialen av MITs simulator kallad Virtual Image Synthesis and Transformation for Autonomy (VISTA) [1].

När automatiserade fordon samlar data från verklig körning så lär de sig manövrera fordonet i de trafiksituationer som de blir utsatta för. Så kallade edge-cases där fordonet är nära olyckor sker dock inte så ofta, och det är utmanande att träna algoritmerna till att lära sig hantera sådana situationer. Med hjälp av simulatorer så är det möjligt att träna algoritmerna på edge-cases utan några verkliga konsekvenser.

VISTA sägs använda sig av en liten mängd data från verklig körning, för att sedan utforska ett stort antal möjliga scenarier för fordonet på vägen. Fordonet i simulatorn motiveras till att inte hamna i olyckor på vägen till sitt slutmål, och blir därmed bättre och bättre på att hantera edge-cases.

Vanligtvis har man i simulatorer en miljö som är artificiellt designad. VISTA använder sig av den videodata från den verkliga körningen, och sägs därmed ge resultat som bättre överförs mellan simulator och verklighet.

I tester så visade det sig att ett fordon som tränats i VISTA under 15 timmar och kört 10,000 km efteråt kunna köra på obekanta vägar.

Mer om det hela kan ni läsa om i MITs artikel med titel Learning Robust Control Policies for End-to-End Autonomous Driving From Data-Driven Simulation.

Egen kommentar

VISTA sägs även använda sig av förstärkt lärande utan inmatade regler förutom ”krascha inte”. Jag är nyfiken på om det är möjligt för fordonet att alls lära sig att förhålla sig till trafikregler genom den metoden. Syftet med VISTA är förmodligen inte att lära sig trafikregler, utan kanske snarare bara fokus på manövrering av fordonet i edge-cases.

Källor

[1] MIT News. System trains driverless cars in simulation before they hit the road. 2020-03-23 Länk

[2] Wiggers, K., Venture Beat. MIT CSAIL’s VISTA autonomous vehicle simulator transfers skills learned to the real world. 2020-03-23 Länk

Tips på podcast och dylikt

  • Human-Robot Interaction and Reward Engineering. Diskussion mellan Lex Fridman från MIT och Anca Dragan som är professor vid University of California – Berkeley och konsult på Waymo. Länk
  • Robotaxi Economics. Kirsten Korosec från TechCrunch, Alex Roy från Human Driving Association och Argo.ai och Edward Niedermeyer från Autonocast diskuterar ekonomiska aspekter av självkörande taxi med Harvard-forskaren Ashley Nunes som bland annat gjort en studie om ekonomiska aspekter av självkörande taxi i San Francisco. Länk
  • Navigant Research Autonomous Leaderboard. Teamet från ovan (Kirsten, Alex och Edward) diskuterar Navigants senaste rankning av aktörer inom AD-sfären med rapportens författare Sam Abuelsamid. Länk
  • The Future of Traffic Flow. Siemens podcast The Future Car som leds av Eddie Bernardorns gästas av Eric Gannaway from Siemens ITS. De diskuterar potentiella för- och nackdelar med uppkopplade fordon, hur intelligenta trafiksystem kommer att förbättra trafikflödet och hur framtiden för sysselsättningen i bilindustrin kan komma att se ut. Länk
  • Smart Mobility Beyond Autonomous VehiclesInSecurity Podcasts värd Matt Stephenson och Jeff Davis från BlackBerry diskuterar den ständigt föränderliga världen för uppkopplade och självkörande transporter, och vad som krävs för att bygga en smart stad. Länk
  • Science Behind Self-Driving Cars. Nvidias AI Podcast gästas av Neda Cvijetic som är senior chef för autonoma fordon på Nvidia. Tillsammans med värden Rick Merritt diskuterar hon teknologier för automatiserad körning med fokus på neurala nätverk. Länk

Navigering i snö med hjälp av radar

Vi har tidigare rapporterat om en radar som utvecklas vid MIT för kartläggning av geologiska mönster under vägytan. Nu har MIT-forskarna publicerat en artikel med titeln Autonomous Navigation in Inclement Weather based on a Localizing Ground Penetrating Radar med nya rön kopplat till denna radarteknik [1].

Lösningen som de beskriver i artikeln skapar en databas med unika fingeravtryck av geologiska mönster under vägytan. När bilen återvänder till den specifika platsen jämförs nuvarande mätningen med databasen för att hjälpa bilen att lokalisera sig.

Lösningen har utvärderats på en landsväg på en testbana. Resultaten visar att navigationsnoggrannheten med den nya lösningen blir i genomsnitt bara ca 2,5 cm sämre i snö jämfört med fina väderförhållanden. Resultaten visar dock att noggrannheten försämras något (blir ca 13 cm i genomsnitt) när det regnar. Detta eftersom mer vatten ansamlas i marken när det regnar, vilket leder till en större skillnad mellan databasen och nuvarande avläsningen.

Forskarna påpekar att både hård- och mjukvaran behöver optimeras innan lösningen kan användas kommersiellt.

Här kan ni se en kort video om det hela.

Källor

[1] Conner-Simons, A., MIT News. To self-drive in the snow, look under the road. 2020-02-26 Länk

Paneldiskussion: Trust in mobility

På CES i Las Vegas 2020 samlade Veoneer en panel med experter inom framtidens mobilitet, och en väldigt intressant diskussion tog rum framför publik.

Diskussionen fokuserade på just användare och vilka utmaningar det finns gällande användningen av förarstödssystem i framtidens fordon. Det finns en viss oro kring att värdet av autonoma och semi-autonoma lösningar inte framgår tydligt nog till användaren. Panelen var överens om att ett av de stora målen inför framtiden är att få igenom rätt budskap till användarna. Det här går i enighet med Veoneer’s slogan som är ’Creating trust in mobility’. Flera konstruktiva förslag presenteras från panelen på hur designers, ingenjörer och tillverkare kan ta sig an den här utmaningen.

Här kan ni se hela diskussionen.

Egen kommentar

Ett väldigt bra citat från diskussionen som jag skulle vilja belysa är We don’t drive a vehicle brand x anymore, we drive a vehicle brand x with software version x.y (av Bryan Reimer från MIT).

Det finns en expanderade komplexitet som gör det väldigt svårt för användare att känna sin bil och vad den är kapabel till nu när ett fordon kan bli ett helt annat fordon igenom en enkel mjukvareuppdatering. Det räcker alltså inte att läsa manualen till sin bil, vilket ändå ingen gör, utan man behöver också frekvent läsa och förstå uppdateringsloggar.  

Det jag fick med mig från diskussionen var att förbättrad kommunikation till användare är ett fruktsamt fokusområde framåt, och att det finns experter som har bra förståelse av problematiken.

MIT:s studie om framtidens mobilitet

I en omfattande rapport (220 sidor!) från MIT kan man nu läsa om deras syn på framtidens mobilitet [1]. Det som presenteras och diskuteras i rapporten innefattar dagens utmaningar tillsammans med en prognos för framtiden avseende flera olika frågeställningar.

Rapporten behandlar frågor som hur klimatpolitiken kommer att påverka bränslepriser, hur statistik kring fordonsägande kommer att se ut i framtiden samt framtidens infrastruktur i storstäder i förhållande till autonoma fordon.

I rapporten presenteras en modell kring målet om att begränsa globala uppvärmningen till 2°C och hur det kan gå till. 

Framtidsvisionerna i relation till fordonsautomation tas upp med analyser kring några specifika punkter:

  • Förordningar som omfattar sensorkrav, pålitlighetskrav m.m. behöver komma på plats innan autonoma fordon kan användas som en möjlig form av mobilitet.
  • Allmänhetens attityder, som i dagsläget prognostiseras vara mest positiv från enbart några få målgrupper.
  • Mobilitettjänster, där billiga dörr-till-dörr mobilitetstjänster kommer att leda till högre energiförbrukning. 
  • Behovet av fjärroperatörer, där det endast blir ekonomiskt lönsamt om en operatör kan övervaka flera automatiserade fordon samtidigt.
  • Trängsel som resultat av ökad fordonsautomation. Det här erkänns vara diskutabelt i och med att även kollektivtrafik kan automatiseras, och den mest lovande lösningen uttrycks vara kollektivtrafik som står för de storskaliga transporterna. 

Egen kommentar

Fjärroperatörer som övervakar flera fordon, trots att det blir mer ekonomiskt lönsamt, kan bli en större utmaning från ett human factors perspektiv. Frågan är om fjärroperatörer behöver en övervakare, en ”säkerhetsoperatör”?

Källor

[1] MIT Energy Initiative. 2019. Insights into Future Mobility. Cambridge, MA: MIT Energy Initiative Länk

Hjälp i korsningar

En grupp forskare vid MIT och Toyota har utvecklat en ny modell som hjälper självkörande fordon i korsningar med sikthinder [1].

Modellen använder sin egen osäkerhet för att uppskatta risken för potentiella kollisioner eller andra trafikstörningar vid obevakade korsningar utan stoppskyldighet. Den väger in flera kritiska faktorer, inklusive visuella hinder i närheten, sensorbrus och fel, liksom hastigheten på andra bilar. Baserat på den beräknade risken kan modellen råda bilen att stanna, köra vidare i korsningen eller krypa framåt för att samla in mer data.

Modellen har utvärderats i ungefär 100 försök med fjärrstyrda miniatyrbilar som svängde vid en tät trafikerad korsning med sikthinder på en miniatyr. Dessa experiment involverade helt självkörande bilar och bilar med stödsystem. Resultaten visar att modellen hjälpte bilarna att undvika kollision i 70-100% av fallen. 

Enligt forskarna skiljer sig deras nya modell från liknande modeller som implementerats i samma fjärrstyrda miniatyrbilar som ibland inte kan fullborda en enda körning utan kollision.

Källor

[1] E&T Engineering and Technology. Autonomous vehicles get help to safely navigate tricky crossroads. 2019-11-05 Länk

Skuggdetektion

Forskare på MIT har utvecklat ett system som kan detektera små förändringar i skuggor på marken för att se om det finns ett rörligt objekt, till exempel en fotgängare, bakom hörnet [1].

Systemet, kallat ShadowCam, jämför ljusinstensiteten i skuggor i en videosekvens och klassificerar objekt som stillastående eller rörliga via en avancerad metod kallad “Direct Sparse Odometry” eller DSO.

Källa

[1] Rob Matheson: Helping autonomous vehicles see around corners, MIT News 2019-10-27 Länk

Neurala nätverk + video + radiovågor

Att anonymisera data är alltmer populärt och behövligt, speciellt när det gäller videodata som det kommer att finnas gott om i automatiserade fordon. En forskargrupp vid MIT har tagit fram en ny metod som av anonymiserar videodata genom att dra nytta av maskininlärning och radiovågor [1]. 

De har skapat en neural nätverksmodell som kan upptäcka vad människor gör i situationer där de syns dåligt eller är dolda bakom andra objekt. Grundidén är att spela in videobilder av samma scen med synligt ljus och radiovågor. Modellen korrelerar sedan videobilder med radiovågor och rörelserna återspeglas i form av en tredimensionell streckgubbe.

Här kan ni läsa mer detaljerad om det hela.

Källor

[1] MIT Technology Review. Machine vision has learned to use radio waves to see through walls and in darkness. 2019-10-09 Länk