Etikettarkiv: MIT

Neurala nätverk + video + radiovågor

Att anonymisera data är alltmer populärt och behövligt, speciellt när det gäller videodata som det kommer att finnas gott om i automatiserade fordon. En forskargrupp vid MIT har tagit fram en ny metod som av anonymiserar videodata genom att dra nytta av maskininlärning och radiovågor [1]. 

De har skapat en neural nätverksmodell som kan upptäcka vad människor gör i situationer där de syns dåligt eller är dolda bakom andra objekt. Grundidén är att spela in videobilder av samma scen med synligt ljus och radiovågor. Modellen korrelerar sedan videobilder med radiovågor och rörelserna återspeglas i form av en tredimensionell streckgubbe.

Här kan ni läsa mer detaljerad om det hela.

Källor

[1] MIT Technology Review. Machine vision has learned to use radio waves to see through walls and in darkness. 2019-10-09 Länk

Självkörande taxi får det tufft

I en ny artikel visas resultat från en MIT-studie där man kommit fram till att självkörande taxibilar, s.k. robot taxis, kommer att bli dyrare än vanliga. Detta på grund av dolda kostnader för bland annat underhåll, försäkring, fjärrövervakning och taxistillstånd [1].

Källa

[1] Edward Niedermayer: MIT Paper Tackles The Challenging Economics Of Autonomous Taxis, The Drive 2019-05-06 Länk

Detta har hänt: Del II – CES

Första bilen debuterade på Consumer Electronics Show (CES) för 20 år sedan, och då var allt annat i fokus förutom just bilar. Men under de senaste åren har CES blivit mer av en autoshow då allt fler aktörer från fordonsbranschen passar på att visa upp sina prototyper och offentliggöra sina planer och ambitioner där. Årets upplaga av CES som pågick förra veckan var inget undantag. Jag var inte med på plats men att tolka av det som publicerats i media fick just automatiserade och uppkopplade fordon en hel del uppmärksamhet, även om det kanske var något mindre om självkörande fordon än förra året. Dessvärre verkar det som att ingen av aktörerna visat något riktigt nytt och revolutionerande, något som kan komma att förändra världen. Många har visat skyttlar och lösningar kopplade till mobilitetstjänster för varor och passagerare. Mycket igenkänning av aktiviteter och emotioner samt igenkänning av gester. Förvånansvärt lite fokus på röststyrning – men det betyder nog inte att man lämnat det spåret, bara att nyhetsvärdet avtagit. Som vanligt är mycket av det som visats på koncept- och mockupstadium oftast långt ifrån produktion men det finns undantag. 

Här är en översikt av det som visats där så får ni själva avgöra om mina slutsatser stämmer eller ej.

  • Veoneers Liv 3.0. Autolivs avknoppning Veoneer valde att fokusera på Collaborative Driving, något som företaget anser vara av stor vikt då de förutspår att de flesta fordon sålda år 2030 kommer erbjuda delad interaktion med mänskliga förare. Flera tekniska lösningar, som Pilot Assist Level 2+, framåt-tittande kameror, 5G och superdatorn Zeus, var integrerade i forskningsfordonet Liv 3.0 och kunde prövas på en avlyst bana. Dessa lösningar har utvecklats i samarbete med bl a Zenuity, Ericsson och MIT. Värt att notera här att Veoneer precis vunnit ett kontrakt med en global biltillverkare gällande konstruktion och produktion av ett nytt lidarsystem (tillverkad av Velodyne) för automatiserade bilar. Länk Film
  • Smart Eyes övervakning. Göteborgsbaserade Smart Eye visade sin teknologi för övervakning av föraren och igenkänning av trötthet och ouppmärksamhet. Detta gjordes i samarbete med NXP. En annan nyhet är att Smart Eye inleder samarbete med Ambarella, utvecklare av högupplösta videofilmer och halvledare för datorseende.  Länk Länk
  • Mercedes och Nvidia. Förra året började MB och Nvidia samarbeta kring ”cockpit of the future”. Nu ska företagen utöka samarbetet med optimering av AI och självkörande funktioner. Länk
  • Mercedes Urbanetic Van. Som vi rapporterat om innan är Urbanetic Van en plattform som går att nyttja för både transport av gods och passagerare, beroende på vilken kaross som man använder. Den har ingen ratt utan är tänkt att vara helt självkörande. På CES visades prototypen för transport av passagerare och betoningen var på ”informed trust”, dvs. hur man kan skapa tillit till det självkörande fordonet både mot egna passagerare och mot andra trafikanter. Länk
  • Yandex. En rysk jätte som vi skrivit om vid ett par tillfällen. Det som är mest spännande med dem är att de lyckats demonstrera sitt självkörande system i verklig trafik i Las Vegas. Gatorna var så klart kartlagda i förväg. Här kan ni se en journalists resa i Yandex-bil.
  • Nissans ”Invisible-to-Visible”. Genom att använda teknik för förstärkt verklighet har Nissans Intelligent Mobility möjliggjort för förarna och passagerarna att se det osynliga. Det är en interaktiv tredimensionell interaktion inne i fordonet hopkopplad med SAM (Seamless Autonomous Mobility) som analyserar data om fordonet och dess omgivning. Länk
  • Kias R.E.A.D. I sitt pressmeddelande skriver Kia att de förbereder sig för ”post autonomous driving era”. Som en del i detta presenterade företaget sitt Real-time Emotion Adaptive Driving (R.E.A.D.) System, som kan optimera och personifiera kabinutrymmet genom att analysera förarens emotionella tillstånd i realtid med hjälp av AI-baserad biosignaligenkänningsteknik. Systemet har utvecklats i samarbete med MIT. Länk
  • Bosch IoT Concept. Bosch valde att demonstrera mjukvara för delade mobilitetstjänster i form av en självkörande skyttel. Resenärerna kan beställa resan via en app som sedan parar dem ihop med andra resenärer som ska åt samma håll. Appen kan användas för att boka en specifik plats, låsa upp skytteln och få påminnelse om man glömt något i skytteln. Länk
  • Aisin Type C. Aisin Seiki som delvis ägs av Toyota är känt för att utveckla olika fordonskomponenter alltifrån bromsar till batterier. Men under CES visade Aisin Seiki upp två konceptfordon kallade ”i-mobility TYPE C”: en automatiserad personbil och en automatiserad limousine där sätena svänger för att hälsa på passagerare! Det finns ett framåtriktat förarsäte och fordonen kan framföras av en mänsklig förare. Konceptet inkluderar olika förarstödsfunktioner däribland Driver Monitoring System och Facial Action Coding SystemLänk
  • Densos framtida mobilitet. Denso visade också ett skyttel-liknande fordon, Urban Moves, och i den fanns allt från molntjänster till informationssäkerhetslösningar baserade på block chain, logistiktjänster, system för övervakning av förare och system för hantering av fordonsflottor. Länk
  • Continentals CUbE och leveransrobotar. CUbE är egentligen Continentals egna anpassning av EasyMiles skyttel. Hittills har vi sett den för transport av passagerare och nu visades hur den kan användas för leverans av gods i samarbete med små leveransrobotar som distribuerar paket till slutkunden. Tänk er: en robot i form av en hund som springer runt omkring med paket på ryggen. Länk
  • AEV Robotics fordonskoncept MVS. Detta är ett fordonskoncept som är likt Mercedes och Toyotas: ett modulärt fordon med utbytbar kaross. Det är svårt att säga vad som är unikt med det, mer än att det utvecklats av ett australienskt startupp-företag som hittills arbetat i tysthet. Länk
  • Surf ‘N Curve från BCS Automotive Interface Solutions. BCS är inget företag som man läser om i media varje dag. Vanligtvis utvecklar fordonskomponenter men på CES visade de ett fordonskoncept som de döpt till Surf ‘N Curve. Det påstås ha en holistisk interiördesign och när den inte kör själv kan föraren styra den med hjälp av två joystickar. Länk
  • ZFs och e.Go People Mover. Tyska ZF visade en mikrodator kallad ZF ProAI RoboThink som de beskriver som ”the most powerful AI-capable supercomputer in the mobility industry”. De visade också i samarbete med e.Go ett skyttelfordon som är redo för marknadsintroduktion och som fått en första kund, Transdev. Länk
  • Hyundai Mobis Concept. Här ligger fokus på framtida interaktion och upplevelse. Konceptfordonet är utrustat med system för rörelseigenkänning (läs: virtuell touch), system för igenkänning av känslor samt vindrutor som fungerar som skärmar. Utöver det är det utrustat med “Communication Lighting Concept” som möjliggör för det automatiserade fordonet att kommunicera med fotgängare via ljussignaler. Länk
  • Baidus Apollo 3.5. Nu är en ny version av Baidus öppna plattform tillgänglig. Utöver det betonade Baidu att de kommer att testa 100 st robo-taxis under 2019 i Changsha i Kina. Länk
  • Toyotas Guardian. När Toyotas system för automatiserade körning kallat Guardian blir redo för marknadsintroduktion inom ett par år kommer det vara tillgängligt för andra aktörer. Detta är intressant då vi inte sett sådana ambitioner från andra traditionella fordonstillverkare. Länk
  • IBMs AI-assistent Watson. IBM demonstrerade Watson, kanske mest känd för allmänheten som schack-dator, som assistent för resenärer att kommunicera med självkörande skyttlar. Problemet man vill lösa är att man kanske kommer att åka i många olika typer av skyttlar som har olika användargränssnitt. Med Watson kan man få hjälp, ungefär som med Google Assistant. Länk
  • Bytons M-Byte. Ett stort pressuppbåd följde visningen av den elbilen M-Byte från kinesiska startup-bolaget Byton. Bilen, som är designad för självkörning på Nivå 3 enligt SAE-skalan, fick kanske störst uppmärksamhet för den gigantiska 49″-skärmen framför framstolarna. Länk

Detektion av dolda objekt

Detektion av objekt som är dolda exempelvis bakom gatuhörn är en utmaning som fordonsbranschen brottats med länge. I en studie utförd vid MIT har man föreslagit en ny algoritm som utifrån videodata detekterar dolda rörliga objekt [1].

Den nya algoritmen som går under namnet ShadowCam detekterar skuggorna av dolda objekt och klassificerar dessa objekt som ”dynamiska” eller ”statiska”. Den genomsnittliga klassificeringsnoggrannheten på simulerade data är ca 80% och på verkliga data ca 70%.

ShadowCam-algoritmen och datasetet som innehåller simulerade och verkliga finns att tillgå under öppen källkodslicens.

Källor

[1] Naser et al., 2018. ShadowCam: Real-Time Detection Of Moving Obstacles Behind A Corner For Autonomous Vehicles. 21st IEEE International Conference on Intelligent Transportation Systems, 4-7 November, 2018 Länk

Inspiration: 3D printade båtar

En grupp forskare vid MITs Computer Science and Artificial Intelligence Laboratory (CSAIL) och Senseable City Lab inom Department of Urban Studies and Planning (DUSP) har utvecklat förarlösa båtar som erbjuder hög manövrerbarhet och noggrann kontroll [1].

Dessutom kan båtarna skrivas ut med hjälp av en billig 3D-skrivare vilket bäddar för massproduktion.

Här kan ni se en illustration av idén.

Källor

[1] Matheson, R., MIT News. Fleet of autonomous boats could service some cities, reducing road traffic. 2018-05-23 Länk

Navigation utan 3D karta

En grupp forskare vid MITs Computer Science and Artificial Intelligence Laboratory (CSAIL) har utvecklat en lösning som möjliggör för automatiserade fordon att navigera utan att ha tillgång till detaljerad 3D karta av omgivningen [1].

Med den nya lösningen som kallas MapLite kan automatiserade fordon klara obekanta vägar genom att enbart använda GPS och inbyggda sensorer.

Först definierar MapLite ett slutmål och ett “lokalt navigeringsmål” som behöver vara i fordonets nuvarande vy. Sedan skapas en sökväg till målet med hjälp av inbyggda sensorer som lidar. Ett viktigt antagande som görs är att vägen kommer att vara plattare än omgivande områden. MapLite inkluderar också parametriserade modeller som beskriver likartade situationer. En modell kan exempelvis beskriva vad fordonet ska göra vid korsningar eller hur den ska agera på en viss typ av väg.

Enligt forskarna är bergsvägar den största utmaningen eftersom systemet har problem med att handskas med dramatiska höjdförändringar.

Forskningen görs i samarbete med  Toyota Research Institute (TRI)  som har bland annat försett forskarna med en Toyota Prius som de använder i sina tester.

Egen kommentar

Det finns å andra sidan förstås goda skäl till att självkörande bilar matas med information från detaljerade 3D kartor, och det är att teknologin blir tillförlitlig på ett helt annat plan. Men den nya lösningen är självklart lovande och skulle underlätta navigeringen av automatiserade fordon betydligt.

Källor

[1] Conner-Simons, A., Gordon, R., MIT News. Self-driving cars for country roads. 2018-05-07 Länk

Sensor som ser i dimman

En grupp forskare vid MIT har utvecklat ett sensorsystem som kan detektera objekt i dimma och beräkna avstånd till dem, något som på sikt kan hjälpa automatiserade fordon att detektera objekt vid dåliga väderförhållanden [1].

Sensorsystemet har testats i labbmiljö där den presterat bättre än mänskligt seende. I en tät dimma, där människan bara kunde se 36 cm framför sig, kunde systemet upptäcka objekt som befann sig 57 cm ifrån.

Enligt forskarna var dimman mycket tätare än vad man vanligtvis upplever i verklig trafik, och om ett detekteringssystem kunde prestera lika bra som en mänsklig förare vid körning i dimma skulle det vara ett stort genombrott.

Systemet är baserat på en kamera som använder sig av flygtidsprincipen (time of flight). Den skickar ljussignaler och mäter sedan tiden det tar för signalerna att reflekteras. För att komma runt problemet med att vattendroppar i dimman kan störa signalerna används statistiska beräkningar. En ledtråd: MIT-forskarna har kommit fram till att, oavsett hur tjock dimman är, kommer ankomsttiden för det reflekterade ljuset att följa en Gamma-distribution.

Systemet beskrivs i mer detalj i en artikel som heter Towards Photography Through Realistic Fog och som presenteras nästa månad på International Conference on Computational Photography.

Här kan ni se en illustration.

Källor

[1] Hardestay, L., MIT News. Depth-sensing imaging system can peer through fog. 2018-04-20 Länk

Delphi köper nuTonomy

Amerikanska systemleverantören Delphi köper entreprenörsföretaget nuTonomy för 450 miljoner dollar [1].

nuTonomy startade som en spin-off från MIT 2013 och är mest kända för sin självkörande taxitjänst i Singapore. Men man samarbetar också med Lyft för motsvarande tester i Boston, med Grab (Uber-konkurrent i sydostasien) och med Peugeot PSA om att använda SUVen P3008 i taxitjänsterna.

Delphi, som tidigare också köpt Ottomatika, tar på detta sättet ett steg att snabba på sin utveckling av teknologi för självkörande fordon, från att fokuserat huvudsakligen på sensorer. Det kan också vara ett sätt för dem att närma sig de asiatiska spelarna.

Källor

[1] Andrew J Hawkins: Delphi acquires self-driving startup Autonomy for $450 Million, The Verge 2017-10-25 Länk

Autoliv i samarbete med MIT AgeLab

Autoliv inleder ett två årigt forskningssamarbete med  Massachusetts Institute of Technology (MIT) AgeLab [1]. Samarbetet går ut på att utveckla en delvis automatiserad bilprototyp baserad på artificiell intelligens och med människan i centrum.

Enligt forskningschefen på Autoliv, Ola Boström, räcker det inte att införa säkerhetssystem i fordon. För att undvika olyckor måste också tilliten till tekniken byggas upp hos människor, och det hoppas man kunna åstadkomma genom det nya samarbetet.

Troligvis kommer resultaten från samarbetet att föras in i utvecklingen på Zenuity, Autolivs och Volvo Cars gemensamma satsning.

Källor

[1] Autoliv. Press releases. Autoliv and MIT AgeLab to collaborate in the research of autonomous vehicle systems. 2017-10-11 Länk