Kategoriarkiv: Artificiell intelligens

Beteendeforskning på Toyota

Toyota anställer nu multidisciplinära forskare till sin nya grupp: Machine Assisted Cognition (MAC) vars fokus är på beteende, kognition och AI [1].

MAC gruppen ska ta sig an teknologiska lösningar som involverar samspelet mellan människa och teknik, samt prediktion av beteenden kopplade till beslutsfattande med hjälp av AI.

Gruppen kommer att hålla till i Silicon Valley.

Egen kommentar

Det är inte uttryckt i pressmeddelandet om gruppen har något specifikt mål inom kort tid. Beskrivningen av vad gruppen ska göra är väldigt generell, och de skriver även att samarbeten och projekt bestäms vid en senare tidpunkt. Oavsett så finns det definitivt ett stort värde med att ha en grupp som kan kombinera tech- och människo-aspekten i fordonsindustrin idag.

Källa

[1] Toyota. Toyota Research Institute Launches Research Into Understanding and Predicting Human Behavior for Decision Making. 2020-03-25 Länk

Metoder för att upptäcka okänd data utan inlärning

Machine Learning (ML) och speciellt Deep Learning (DL) har visat sig vara mycket effektiva och kraftfulla för att lära sig att känna igen mönster, beteende och egenskaper.

En känd egenskap hos ML är att algoritmerna kan vara extremt bra på data som finns inom den rymd som använts för träning, men extremt dåliga på data som ligger utanför träningsrymden. De är alltså bra på att generalisera, men sämre på att extrapolera. För att detektera data som ligger utanför träningsrymden, tränas ofta nätverk som lära sig se skillnad på ”känd data” och ”okänd data”, genom att presentera exempel från båda klasserna. Problemet är dock att det dels finns många dimensioner i datat (speciellt när indata är bilder) och dels blir det snabbt opraktiskt att samla data på objekt som inte är relevanta för nätverket.

Forskare från Georgia Tech och Samsung, har nyligen publicerat en artikel kring hur nätverk kan tränas, utan att använda data data som ligger utanför träningsrymden [1].

Artikeln presenterar en metod som använder sig av signaler som finns inne i ML nätverken. De skapar sannolikhesfördelningar över hur signalerna beter sig för de olika kända klasserna. Genom att jämföra dessa fördelningar med hur signalerna ser ut för ny data som presenteras för nätverket, lyckas de med hög säkerhet avgöra om den nya datan kommer ifrån den kända eller okända datarymden.

Egen kommentar

Denna metodik har studerats inom Vinnova FFI projektet SMILE II även där med stor framgång [2].

Källor

[1] Hsu, Yen-Chang, et al. ”Generalized ODIN: Detecting Out-of-distribution Image without Learning from Out-of-distribution Data.” arXiv preprint arXiv:2002.11297 (2020).

[2] Slutrapport SMILE II https://www.vinnova.se/globalassets/mikrosajter/ffi/dokument/slutrapporter-ffi/elektronik-mjukvara-och-kommunikation-rapporter/2017-03066eng.pdf

Ford och Waymo släpper nya dataset

Ford har öppnat upp en datasamling som innehåller data som samlats in med hjälp av företagets autonoma fordon i Detroit-området [1]. Datasamlingen är fritt tillgänglig för forskare och kan användas för att förbättra robustheten för självkörande fordon i stadsmiljöer.

Fords dataset kommer efter en uppdatering av ett liknande dataset från Waymo, Waymo Open Dataset [2]. Waymos dataset har utökats med ytterligare 800 segment.  Waymos ambition är att göra det lättare för forskare att utveckla säkra algoritmer från grunden och samtidigt slippa kostnaderna för att samla in sina egna data.

Kopplat till detta har Waymo också utlyst en rad tävlingar, Waymo Open Dataset Challenges. Den betsår av en rad olika utmaningar inom 2D och 3D detektering och objektföljning, och kommer pågår till slutet av maj. Förstaprisvinnaren kommer att belönas med 15 000 dollar.

Egen kommentar

Förutom marknadsföringssyften, är syftet med dessa tävlingar dels att få inspiration till nya lösningar och framförallt att hitta potentiella framtida medarbetare. Flera aktörer använder sig av liknande rekryteringsteknik.

Källor

[1] Wiggers, K., Ford releases a data set to accelerate autonomous car development. VentureBeat 2020-03-19 Länk

[2] Wiggers, K., Waymo expands autonomous driving data set and launches $110,000 challenge. VentureBeat Länk

Smart järnväg nästa?

Även om järnvägstransporter generellt har mindre att vinna på att ta bort föraren än vad vägtransporter har, så sker även där en del innovation inom maskininlärning och artificiell intelligens.

Amerikanska branschorganisationen Association of American Railroads testade i somras att köra ett förarlöst tåg på sin testanläggning i Colorado [1]. Andra tillämpningsområden är också på gång: amerikanska järnvägsjätten BNSF Railway har till exempel nyttjat maskininlärning för att förbättra och sänka kostnaderna för underhåll av såväl räls som vagnar.

Till detta kan också tilläggas att australiensiska gruvbolaget Rio Tinto sedan 2018 använder ett autonomt godståg, AutoHaul, för transport av järnmalm från Pilbara-gruvan i Western Australia. Tåget kontrolleras från ett fjärrcenter i Perth som ligger över 1500 km från gruvan. Enligt bolaget visar resultaten en betydande potential att förbättra produktiviteten, vilket ger ökad systemflexibilitet och minskar flaskhalsar [2].

Källor

[1] Justin Franz, Seattle Times. How autonomous freight trains powered by artificial intelligence could come to a railroad near you. 2020-03-10 Länk

[2] Rail Journal. Rise of the machines: Rio Tinto breaks new ground with AutoHaul. 2019-08-19 Länk

Varför ansikten inte alltid säger sanningen om känslor?

AI för igenkänning av emotioner, inte minst hos förare och passagerare i automatiserade fordon, är ett populärt ämne. Typiskt används kamerabilder för att läsa av ansiktsuttryck som sedan används för att uppskatta hur personen i fråga känner sig. Men kan ansiktsuttryck på ett tillförlitligt sätt kommunicera känslor?

Nja, enligt en artikel som nyligen publicerats av vetenskapstidskriften Nature [1]Där diskuteras olika anledningar, från att vi är duktiga på att dölja våra känslor till att vi kan ha flera olika känslor på samma gång som är svåra att särskilja. Kontexten spelar också stor roll och ett ansiktsuttryck kan betyda olika saker i olika situationer. En annan anledning är att AI-algoritmer utgår från känslor klassificerade av människor, och människor är inte alltid bra på att läsa av känslor.

Lösning? Utgå inte bara från ansiktsuttryck för att läsa av emotioner. Kombinera ansiktsuttryck med exemplevis fysiologiska mätningar och information från omgivningen. Viktigt också att komma ihåg är att vissa applikationer inte kräver stor tillförlitlighet i igenkänning, medan andra gör det. Så välj applikationsområdet med omsorg.

Källor

[1] Heaven, D., Nature, Why faces don’t always tell the truth about feelings. 2020-02-26 Länk

Imitationsinlärning för snabbare beslutsfattande

En forskargrupp från Deakin University i Australien har publicerat en ny studie med titeln Deep Imitation Learning for Autonomous Vehicles Based on Convolutional Neural Networks [1]. Som det framgår av titeln så använder de sig av s.k. imitationsinlärning där algoritmen lär sig från demonstrationer. 

Under experimentet fick en mänsklig förare köra ett fordon utrustat med tre utåtriktade kameror. Kamerabilderna behandlas sedan med faltningsnätverk (convolutional neural networks, CNN) som lär sig fatta beslut utifrån förarens beslut.

Studien fokuserade på att utvärdera hur prestandan hos CNN påverkas av olika arkitekturer, inklusive antalet lager och filter samt filterstorleken. De kom fram till att antalet filter inte påverkar prestandan.

Källor

[1] CHINESE ASSOCIATION OF AUTOMATION. Improving the vision of self-driving vehicles. 2020-03-06 Länk

Ubers maskininlärning och versionshantering

Uber har publicerat en övergripande beskrivning av sin infrastruktur för maskininlärningsmodeller samt ett verktyg, VerCD, som hjälper dem att hantera olika versioner av dessa modeller [1].

Maskininlärningsmodeller skapas i fem steg: 

  • Dataintag. Dataloggar för utveckling av maskininlärningsmodeller väljs ut och förs in till maskininlärningstacken. Ungefär 75 % av data används för träning, 15% för test och 10 % för validering.
  • Datavalidering. Den utvalda datamängden behandlas för att detektera och klassificera olika objekt. Dessa jämförs sedan med andra datamängder över samma scener för att förstå hur förhållandena har förändrats.
  • Modellträning. För att träna modeller appliceras Horovods distribuerad träning. Träningen sker parallellt på olika processorer så att samma modell tränas på flera processorer med olika delar av datamängden. I ett nästa steg används Horovods ring-allreduce-algoritm för att fördela det som en processor lärt sig till alla andra processorer. För att säkerställa att träningen går enligt plan övervakar ingenjörerna processen med hjälp av TensorFlow och PyTorch. Orkestrering av träningsarbetet görs med hjälp av Peloton, en open source resursplanerare utvecklad av Uber. 
  • Modellutvärdering. Utvärderingen omfattar modeller såväl som hela systemets prestanda. Här används både modellspecifika mätvärden och systemvärden. Utöver det utvärderas hårdvaran som modellerna kommer att exekveras på för att se hur väl den hanterar dessa modeller.
  • Modellimplementering. Efter att en modell tränats och utvärderats implementeras den på en dator i det självkörande fordonet.

Alla dessa steg kräver en hel del handpåläggning och stöd från ingenjörer vilket öppnar upp för misstag. Då varje steg har inbyggda beroenden till andra steg och andra system kan ett litet misstag få påtagliga konsekvenser. Det är där som verktyget VerCD kommer in i bilden. Det har skapats av Uber för att automatisera arbetsflödet samt underlätta hanteringen av olika beroenden och modellversioner. 

Egen kommentar

Kopplat till detta kan ni vi också rapportera att Ubers VD Dara Khosrowshahi är positiv till att använda självkörande teknologi från andra tillverkare och ska ha inlett samtal med relevanta aktörer. Några gissningar?

En annan Uber-relaterad nyhet är att företagets f.d. ingenjör Anthony Levandowski beordrats av en domstol i Kalifornien att betala 179 miljoner dollar till Google för brott mot villkoren i hans kontrakt och separationsavtal med Google. Han har nu ansökt om konkursskydd. Levandowski påstås ha stulit med sig flera tusentals dokument när han lämnade Google (Waymo), och som han sedan ska ha använt för att utveckla en lidarsensor för automatiserade lastbilar på Otto – som senare blivit uppköpta av Uber.

Källor

[1] Yu Guo, Khalid Ashmawy, Eric Huang, Wei Zeng. Uber Engineering. Under the Hood of Uber ATG’s Machine Learning Infrastructure and Versioning Control Platform for Self-Driving Vehicles. 2020-03-04 Länk

Infrastrukturen och kartors betydelse

Queensland University of Technology i Australien har precis avslutat en studie om hur viktig infrastrukturens utformning är för självkörande fordon. Under en tremånadersperiod körde forskarna en bil utrustad med en mängd olika kameror och sensorer. Totalt körde de 120 mil och samlade in 20 terabyte data som användes i syfte att testa toppmoderna AI-algoritmer [1].

Resultaten visade att i princip alla algoritmer idag är beroende av högupplöst kartunderlag för att kunna tolka skyltar och vägmarkeringar. Med enbart kameror upptäckte och förstod systemen bara cirka 40% skyltarna. Genom att lägga till kartor för att hjälpa kamerasystemet förbättrades siffran till 97%.

En slutsats var att kartsystemen kan komma att behöva uppdateras i realtid för att säkerställa att självkörande fordon ska kunna köra säkert.

Källor

[1] iMove Australia. Autonomous vehicles and Australian roads: Are they ready for each other. 2020-02-27 Länk

Kommer en robot att bli din framtida chef?

Historiskt sett har teknologiska framsteg haft stor påverkan på hur vi organiserar oss på våra jobb. I en artikel spås det hur AI kan komma att drastiskt intensifiera vårt sätt att jobba med några exempel från t.ex. Amazon [1].

Tidigare har det vart mycket fokus på att kunna optimera produktiviteten av fabriksarbetare. Utvecklingen av billiga sensorer, nätverk och maskininlärning möjliggör nu samma nivå av detaljerad övervakning av produktiviteten bland tjänstemän.

Källa

[1] Dizieza, J., How hard will the robota make us work?, The Verge 2020-02-27 Länk

Detta har hänt under julen: Del II

Här kommer Del II av sammanställningen av det som hänt under julen. Det blev en blandning av CES-nyheter och annat relevant i media. Sammanställningen är skriven av Daban, Tor, Mahdere och Azra.

Mobileyes roll i autonoma fordon. Grundaren för Mobileye, Amnon Shashua, höll på CES 2020 en insiktsfull presentation om Mobileyes roll i dagens ADAS system samt om framtidens autonoma fordon . Intressant är att Mobileye har som ambition att kunna erbjuda full automatisering med endast kamerasensorer. Amnon Shashua pratar i presentationen om sensorteknologin som är planerad att användas i deras robotaxisamarbeten och visar upp systemets körförmåga i verklig trafik. Länk1 Länk2

Leveransrobotar får OK i Kalifornien. Autonoma lätta lastbilar kan nu användas för kommersiella ändamål på allmänna vägar i Kalifornien. Department of Motor Vehicles (DMV) presenterade en tillståndsprocess för företag som vill testa eller sprida förarlösa lastbilar för kommersiellt bruk. Detta kommer säkert som en välkommen nyhet för de företag som är fokuserade på paketleveranser  och food trucks. Länk

Självbalanserande fordon. Segway har lanserat ett självbalanserande fordon som kan köra upp till 39 km/h. Fordonet kallas S-Pod och är utformad för sittande transporter inom avgränsade områden. Segway har också lanserat en e-scooter med en max hastighet på 20 km/h som påstås ha förmågan att hantera 15% lutningar utan att sakta ned. Länk

Toyota bygger ny stad för AI. Toyota har avslöjat sina planer för att bygga en ”hållbar stad för framtiden” nära Mount Fuji. Staden som kommer heta Woven City som kommer att nyttja vätgasbränsleceller och bli en labbmiljö för självkörande fordon, robotik och AI. Woven City kommer täcka 70 hektar och kommer att vara hem för forskare och heltidsboende. Länk

Sydkorea tillåter autonom körning. Från och med juli i år förväntas fordonstillverkare sälja autonoma fordon på nivå 3 i Sydkorea. The Ministry of Land, Infrastructure and Transport kommer att utarbeta detaljerade tillämpningsföreskrifter och testmetoder för att verifiera prestandan för autonoma fordon med nivå 3 innan de introduceras. Ett viktigt krav kommer att vara att fordonen inte kommer att få startas om föraren inte finns på plats för ta kontroll över bilen i nödsituationer under autonom körning. Länk

Qualcomm 5G för autonom körning. Qualcomm har meddelat att de avser att utveckla ett system för autonoma fordon till 2023. Dessa system kommer nyttja 5G-teknologi för att hantera allt från körfältskontroll till autonom körning. Qualcomm har delat upp systemet i hårdvara och mjukvara som kan skalas upp eller ner för att möta olika behov från fordonstillverkare. Länk

Datadelningsinitiativ. World Economic Forum och Deepen AI tillkännager Safety Pool ™ som skall vara en plattform för datadelning av körscenarion och säkerhetsdata. Man hoppas kunna främja utvecklingen av förarstödsfunktioner och självkörande teknologi. Safety Pool kan också utnyttjas för främjandet av bättre förordningar. Länk

HERE fortsätter österut. Kartföretaget HERE Technologies har ingått strategiskt partnerskap med Mitsubishi. HERE etablerar sig på detta viset än tydligare i Asien. Mitsubishi och Japans största telekommunikationsbolag NTT har tidigare rapporterats planerat att köpa 30% av HERE. Länk

Volkswagens laddningsrobot. VW visade upp sitt koncept för en helt autonom laddningsrobot för elfordon. Vid behov åker roboten runt i parkeringshus och parkeringsplatser med ett mobilt laddningspaket, en så kallad batterivagn. Väl på plats så stannar inte roboten kvar utan lämnar laddningsanordningen med elfordonet och går ut för att hitta andra elbilar som behöver laddas. Den helt autonoma roboten använder sig av kameror, sensorer och lasrar för att ta sig runt på parkeringsplatser. Roboten kan också transportera flera batterivagnar samtidigt där var och en av dem har 25 kWh. Länk

Terranets lidar. I förra nyhetsbrevet skrev vi kort om att Terranet lanserat en ny lidar under CES. Det vi inte skrev där var att Terranet är från Lund. Här kan ni se en video som beskriver den berörda lidarsensorn (VoxelFlow) i mer detalj.