Etikettarkiv: Nvidia

Softbank säljer Nvidia, köper Nuro

Japanska investeringsbanken Softbanks Vision Fund har sålt av hela sitt innehav i elektroniktillverkaren Nvidia för 3,6 miljarder dollar [1]. Det är ytterligare ett slag mot Nvidia, som haft flera motgångar på senare tid, speciellt i Kina.

Istället har Vision Fund nu investerat 940 miljoner dollar i startup-företaget Nuro [2]. Nuro, med grundare från Google, utvecklar ett distributionsfordon för leveranser av livsmedel.

Egen kommentar:

Nvidias problem vad gäller automatisering av fordon kan vara kopplat till att kostnaden för komponenterna är höga. På årets CES-mässa lanserade AMD nya CPU och GPU som var såväl snabbare, energi-effektivare som 20-25% billigare än Intels och Nvidias. Även ARM finns med i denna giganternas kamp. Vem vinner?

Källor:

[1] Elizabeth Schulze: SoftBank’s investment fund dumps entire $3.6 billion stake in Nvidia, CNBC 2019-02-06 Länk

[2] Driverless delivery startup Nuro gets $940 million SoftBank investment, Reuters 2019-02-11 Länk

Vatten och AI

En rapport från ”Center of U.S. auto manufacturing” höjer ett varningens finger kring prestanda hos AI-baserade algoritmer för objektidentifiering i samband med regn. Hayder Radha, professor vid Michigan State University, bekräftar detta problem och säger: I tester missar algoritmen ca 20% av alla objekt i lätt regn, om regnet tredubblas, dubbleras felfrekvensen. Även till synes små förändringar som färgskiftningar på grund av årstiderna kan påverka fordonens radar och lidarsensorer säger Prof. Radha.

Trots dessa utmaningar storsatsar bl.a. Hyundai på AI-teknologi för självkörande fordon. De har bl.a. investerat i startupföretaget Allegro.ai. Även Boston-baserade företaget Optimus Ride satsar med Nvidias Drive AGX Xavier plattformar för att starta en flotta med självkörande fordon i specifika områden t.ex. högskolekcampus och andra zoner för självkörande fordon.

Källa: 

[1] George Leopold: Study Pours Cold Water on AI Driving Algorithms, Datanami 2019-01-02 Länk

Detta har hänt: Del II – CES

Första bilen debuterade på Consumer Electronics Show (CES) för 20 år sedan, och då var allt annat i fokus förutom just bilar. Men under de senaste åren har CES blivit mer av en autoshow då allt fler aktörer från fordonsbranschen passar på att visa upp sina prototyper och offentliggöra sina planer och ambitioner där. Årets upplaga av CES som pågick förra veckan var inget undantag. Jag var inte med på plats men att tolka av det som publicerats i media fick just automatiserade och uppkopplade fordon en hel del uppmärksamhet, även om det kanske var något mindre om självkörande fordon än förra året. Dessvärre verkar det som att ingen av aktörerna visat något riktigt nytt och revolutionerande, något som kan komma att förändra världen. Många har visat skyttlar och lösningar kopplade till mobilitetstjänster för varor och passagerare. Mycket igenkänning av aktiviteter och emotioner samt igenkänning av gester. Förvånansvärt lite fokus på röststyrning – men det betyder nog inte att man lämnat det spåret, bara att nyhetsvärdet avtagit. Som vanligt är mycket av det som visats på koncept- och mockupstadium oftast långt ifrån produktion men det finns undantag. 

Här är en översikt av det som visats där så får ni själva avgöra om mina slutsatser stämmer eller ej.

  • Veoneers Liv 3.0. Autolivs avknoppning Veoneer valde att fokusera på Collaborative Driving, något som företaget anser vara av stor vikt då de förutspår att de flesta fordon sålda år 2030 kommer erbjuda delad interaktion med mänskliga förare. Flera tekniska lösningar, som Pilot Assist Level 2+, framåt-tittande kameror, 5G och superdatorn Zeus, var integrerade i forskningsfordonet Liv 3.0 och kunde prövas på en avlyst bana. Dessa lösningar har utvecklats i samarbete med bl a Zenuity, Ericsson och MIT. Värt att notera här att Veoneer precis vunnit ett kontrakt med en global biltillverkare gällande konstruktion och produktion av ett nytt lidarsystem (tillverkad av Velodyne) för automatiserade bilar. Länk Film
  • Smart Eyes övervakning. Göteborgsbaserade Smart Eye visade sin teknologi för övervakning av föraren och igenkänning av trötthet och ouppmärksamhet. Detta gjordes i samarbete med NXP. En annan nyhet är att Smart Eye inleder samarbete med Ambarella, utvecklare av högupplösta videofilmer och halvledare för datorseende.  Länk Länk
  • Mercedes och Nvidia. Förra året började MB och Nvidia samarbeta kring ”cockpit of the future”. Nu ska företagen utöka samarbetet med optimering av AI och självkörande funktioner. Länk
  • Mercedes Urbanetic Van. Som vi rapporterat om innan är Urbanetic Van en plattform som går att nyttja för både transport av gods och passagerare, beroende på vilken kaross som man använder. Den har ingen ratt utan är tänkt att vara helt självkörande. På CES visades prototypen för transport av passagerare och betoningen var på ”informed trust”, dvs. hur man kan skapa tillit till det självkörande fordonet både mot egna passagerare och mot andra trafikanter. Länk
  • Yandex. En rysk jätte som vi skrivit om vid ett par tillfällen. Det som är mest spännande med dem är att de lyckats demonstrera sitt självkörande system i verklig trafik i Las Vegas. Gatorna var så klart kartlagda i förväg. Här kan ni se en journalists resa i Yandex-bil.
  • Nissans ”Invisible-to-Visible”. Genom att använda teknik för förstärkt verklighet har Nissans Intelligent Mobility möjliggjort för förarna och passagerarna att se det osynliga. Det är en interaktiv tredimensionell interaktion inne i fordonet hopkopplad med SAM (Seamless Autonomous Mobility) som analyserar data om fordonet och dess omgivning. Länk
  • Kias R.E.A.D. I sitt pressmeddelande skriver Kia att de förbereder sig för ”post autonomous driving era”. Som en del i detta presenterade företaget sitt Real-time Emotion Adaptive Driving (R.E.A.D.) System, som kan optimera och personifiera kabinutrymmet genom att analysera förarens emotionella tillstånd i realtid med hjälp av AI-baserad biosignaligenkänningsteknik. Systemet har utvecklats i samarbete med MIT. Länk
  • Bosch IoT Concept. Bosch valde att demonstrera mjukvara för delade mobilitetstjänster i form av en självkörande skyttel. Resenärerna kan beställa resan via en app som sedan parar dem ihop med andra resenärer som ska åt samma håll. Appen kan användas för att boka en specifik plats, låsa upp skytteln och få påminnelse om man glömt något i skytteln. Länk
  • Aisin Type C. Aisin Seiki som delvis ägs av Toyota är känt för att utveckla olika fordonskomponenter alltifrån bromsar till batterier. Men under CES visade Aisin Seiki upp två konceptfordon kallade ”i-mobility TYPE C”: en automatiserad personbil och en automatiserad limousine där sätena svänger för att hälsa på passagerare! Det finns ett framåtriktat förarsäte och fordonen kan framföras av en mänsklig förare. Konceptet inkluderar olika förarstödsfunktioner däribland Driver Monitoring System och Facial Action Coding SystemLänk
  • Densos framtida mobilitet. Denso visade också ett skyttel-liknande fordon, Urban Moves, och i den fanns allt från molntjänster till informationssäkerhetslösningar baserade på block chain, logistiktjänster, system för övervakning av förare och system för hantering av fordonsflottor. Länk
  • Continentals CUbE och leveransrobotar. CUbE är egentligen Continentals egna anpassning av EasyMiles skyttel. Hittills har vi sett den för transport av passagerare och nu visades hur den kan användas för leverans av gods i samarbete med små leveransrobotar som distribuerar paket till slutkunden. Tänk er: en robot i form av en hund som springer runt omkring med paket på ryggen. Länk
  • AEV Robotics fordonskoncept MVS. Detta är ett fordonskoncept som är likt Mercedes och Toyotas: ett modulärt fordon med utbytbar kaross. Det är svårt att säga vad som är unikt med det, mer än att det utvecklats av ett australienskt startupp-företag som hittills arbetat i tysthet. Länk
  • Surf ‘N Curve från BCS Automotive Interface Solutions. BCS är inget företag som man läser om i media varje dag. Vanligtvis utvecklar fordonskomponenter men på CES visade de ett fordonskoncept som de döpt till Surf ‘N Curve. Det påstås ha en holistisk interiördesign och när den inte kör själv kan föraren styra den med hjälp av två joystickar. Länk
  • ZFs och e.Go People Mover. Tyska ZF visade en mikrodator kallad ZF ProAI RoboThink som de beskriver som ”the most powerful AI-capable supercomputer in the mobility industry”. De visade också i samarbete med e.Go ett skyttelfordon som är redo för marknadsintroduktion och som fått en första kund, Transdev. Länk
  • Hyundai Mobis Concept. Här ligger fokus på framtida interaktion och upplevelse. Konceptfordonet är utrustat med system för rörelseigenkänning (läs: virtuell touch), system för igenkänning av känslor samt vindrutor som fungerar som skärmar. Utöver det är det utrustat med “Communication Lighting Concept” som möjliggör för det automatiserade fordonet att kommunicera med fotgängare via ljussignaler. Länk
  • Baidus Apollo 3.5. Nu är en ny version av Baidus öppna plattform tillgänglig. Utöver det betonade Baidu att de kommer att testa 100 st robo-taxis under 2019 i Changsha i Kina. Länk
  • Toyotas Guardian. När Toyotas system för automatiserade körning kallat Guardian blir redo för marknadsintroduktion inom ett par år kommer det vara tillgängligt för andra aktörer. Detta är intressant då vi inte sett sådana ambitioner från andra traditionella fordonstillverkare. Länk
  • IBMs AI-assistent Watson. IBM demonstrerade Watson, kanske mest känd för allmänheten som schack-dator, som assistent för resenärer att kommunicera med självkörande skyttlar. Problemet man vill lösa är att man kanske kommer att åka i många olika typer av skyttlar som har olika användargränssnitt. Med Watson kan man få hjälp, ungefär som med Google Assistant. Länk
  • Bytons M-Byte. Ett stort pressuppbåd följde visningen av den elbilen M-Byte från kinesiska startup-bolaget Byton. Bilen, som är designad för självkörning på Nivå 3 enligt SAE-skalan, fick kanske störst uppmärksamhet för den gigantiska 49″-skärmen framför framstolarna. Länk

Svenska aktörer samarbetar med Nvidia

Volvo Cars kommer att fördjupa sitt samarbete med chipjätten Nvidia [1]. Samarbetet går ut på att utrusta nästa generation av Volvo-bilar med Nvidias datorsystem Drive AGX Xavier. Den kommer framförallt att användas för mer avancerade och säkrare förarstödssystem.

Dessa bilar väntas vara på marknaden i början av 2020-talet och kommer vara uppbyggda på Scalable Product Architecture 2 (SPA 2) och utrustade med sensorer som möjliggör en 360-graders vy runt bilen. Volvo Cars har inte avslöjat vilka bilmodeller det rör sig om exakt.

Autolivs avknoppning Veoneer har också ett samarbete med Nvidia [2]. I sin nya superdator Zeus som ska möjliggöra automatiserad körning (motsvarande SAE-nivå 4) kommer företaget att använda Drive AGX Xavier. Detta görs ihop med Zenuity, Veoneers och Volvo Cars gemensamma mjukvaruföretag.

Voeneer beskriver Zeus som en ”hjärna” som fogar samman data från kameror, radar och andra sensorer, tolkar situationen och tar nödvändiga åtgärder. Den väntas på marknaden 2021. 

Källor

[1] Volvo Cars Media. Your future Volvo will burst with computing power. 2018-10-10 Länk

[2] Veoneer PR. Veoneer Introduces Autonomous Driving Supercomputer Based on Zenuity Software and NVIDIA Processing Power. 2018-10-10 Länk

Detta har hänt under sommaren – Del II

Huawei + Audi. För att accelerera utvecklingen av smarta fordon har Audi och Huawei inlett ett strategiskt samarbete. Fokus kommer ligga på att gemensamt ta fram lösningar för uppkopplade fordon. De kommer också att utveckla utbildningsprogram för att stärka kompetensen hos experter inom området.

Informationssäkerhet – vad krävs för det? Två ingenjörer från Cruise Automation har publicerat ett dokument som belyser informationssäkerheten i automatiserade fordon. En av de stora utmaningarna är kopplad till den snabba utvecklingstakten för mjukvaran, så att man inte hinner utveckla och genomföra noggranna riskanalyser i samma takt. En annan utmaning ligger i att automatiserade system installeras i befintliga fordon som oftast byggts av någon annan aktör och som har ett okänt antal säkerhetsbrister.

Boschs och Daimlers taxitjänst. De tyska industrijättarna Bosch och Daimler kommer att börja testa automatiserade taxibilar. Testerna kommer att ske i Kalifornien (Silicon Valley) med en säkerhetsförare bakom ratten. Företagen har inte avslöjat hur många bilar det rör sig om exakt. Kopplat till detta kommer de att samarbeta med Nvidia.

Nytt lidarsystem från Baraja. Startuppföretaget Baraja har utvecklat ett nytt sensorsystem för automatiserad körning, Spectrum-Scan, som använder ljus med skiftande våglängder för detektera objekt. Systemet innehåller upp till fyra sensorer som kopplas samman via fiberoptiska kablar till en central processor. Det påstås kosta bara en bråkdel av en vanlig lidar-lösning vilket gör den skalbar för massproduktion.

Continental går med i DeepDrive. För att stärka och snabba upp sin utveckling inom AI-området har tyska Continental gått med i AI-konsortiet DeepDrive vid University of California, Berkeley.

Ny strategi på gång i Frankrike. Frankrike har tillsatt en utredare med uppgift att utveckla en nationell strategi för automatiserad mobilitet – inklusive nya lagar, regler för experiment och pilotprojekt samt säkerhets- och integritetsfrågor. De första lagförslagen väntas komma i slutet av året. Målet är att kunna lansera högt automatiserade fordon någon gång mellan 2020 och 2022.

Mobileye i nya samarbeten. Mobileye har under sommaren inlett två nya samarbeten. Ett med Baidu som går ut på att integrera Mobileyes Responsibility Sensitive Safety (RSS)-modell i Baidus öppna plattform Apollo. Det andra samarbetet är med tyska ZF för att tillsammans ta fram en ny kamera, ZF S-Cam4, som väntas vara redo i slutet av året.

RioTintos självkörande tåg.Gruvföretaget RioTinto har tagit fram ett helt automatiserat tåg för transport av malm. I juli gick det på sin första resa från gruvan Mount Tom Price till Cape Lamberts hamn i Australien.

Nvidias nya rön

Nvidia har lanserat Nvidia Drive IX som är ett programvarupaket som gör det möjligt för fordonstillverkare att övervaka förare och varna dem vid behov [1].

Drive IX använder sig av djuplärande-algoritmer som körs på Nvidia Drive-plattformen och kameror riktade mot förarens ansikte eller mot fordonets omgivning. Den är bland annat kapabel av att utföra ansikts- och taligenkänning, läsa av blickbeteende, gester och läppar, bedöma huvudposition, samt ta in faktorer från trafiken runtomkring. För att åstadkomma detta är algoritmerna baserade på en teknik som heter landmärkes-lokalisering.

Nvidia refererar till Drive IX det en intelligent co-pilot.

Egen kommentar

Att identifiera och kartlägga förarens och passagerarnas aktiviteter är viktigt både i manuellt framförda och automatiserade fordon. SmartEye och RISE Viktoria bedriver också ett forskningsprojekt inom området kallat DRAMA– Driver and passenger activity mapping (finansieras av FFI).

Enligt Persistance Market Research utgör diverse sensorsystem för avkänning av passagerare i fordon en stor del marknaden (uppskattas bli ca 2 miljarder dollar i slutet av 2022).

Källor

[1] Nvidia. AI Is My Co-pilot: How DRIVE IX Helps Humans Stay Focused. 2018-06-27 Länk

NAV Alliance

Volkswagen, Aquantia, Bosch, Continental och Nvidia har skapat en ny allians kallad Networking for Autonomous Vehicles (NAV) Alliance [1].

Målet är att tillsammans adressera komplicerade backend-problem som krävs för att automatiserade fordon ska kunna nå marknaden i stor skala.

Den primära uppgiften är att försöka standardisera dataöverföring med hög bandbredd mellan sensorer och andra enheter i automatiserade fordon. En annan uppgift är att skapa gemensamma förfaranden och krav för system i automatiserade fordon kring säkerhet och övergripande tillförlitlighet, och att utbilda allmänheten om automatiserade fordon – något som behövs för sådana fordon ska bli verklighet.

NAV Alliance hoppas att fler aktörer ansluter.

Källor

[1] Krok, A. CNN. VW, Nvidia, Bosch, others team up to suss out the back end of autonomy. 2018-06-26 Länk

Einrides självkörande T-pod

Svenska Einride kommer att använda Nvidias Drive AI-plattform när de släpper de första självkörande hel-elektriska lastfordonen T-pod till kund i höst.

Med Drive AI-plattformen kommer 200 T-podar att kunna köra själva i upp till 20 mil dvs den tänkta första sträckan mellan Göteborg och Helsingborg. Avsikten är att de ska köra i kolonn och på det sättet minska luftmotståndet.

I filmen nedan syns en T-pod på Asta Zero.

einride

Källor

[1] Darrel Etherington: Einride’s autonomous trucks will be Nvidia-powered, and deliveries start this fall, Techcrunch 2018-03-28 Länk

 

Nvidia kombinerar AI och VR

Under Nvidias årliga konferens GTC som hölls i Kalifornien i slutet av mars presenterade företaget en ny simuleringsplattform som döpts till NVIDIA DRIVE Constellation [1].

Det är en molnbaserad plattform som använder sig av fotorealistisk simulering för att testa självkörande fordon. Att ha ett lager av virtuell verklighet gör att olika användarfall kan illustreras och testas ihop med människor.

Plattformen består i huvudsak av två servrar. Den ena använder sig av företagets simuleringsmjukvara (NVIDIA DRIVE Sim) för att simulera verkliga fordonssensorer som kamera, lidar och radar. Den andra servern innehåller företagets dator för artificiell intelligens (NVIDIA DRIVE Pegasus). Denna processar informationen som simulerats fram av simuleringsmjukvaran, på samma sätt som om den hade kommit från verkliga fordonssensorer.

Förhoppningen är att DRIVE Constellation ska möjliggöra riskfri och snabb storskalig testning. Den kommer att lanseras på marknaden under tredje kvartalet 2018.

Här han ni se hur det hela ser ut.

Källor

[1] Nvidia News. NVIDIA Introduces DRIVE Constellation Simulation System to Safely Drive Autonomous Vehicles Billions of Miles in Virtual Reality. 2018-03-29 Länk

Sensorerna är inte tillräckligt bra ännu

I eftermälet till Uber-olyckan erkänner nu flera leverantörer av sensorer till självkörande fordon, bland dem Nvidia och Mobileye, att sensorsystemen inte är tillräckligt bra ännu för allmän användning [1].

Även om komponenterna fungerar bra för att samla in data och för att utveckla och  förbättra algoritmer för styrning och objektidentifiering så räcker de ännu inte till för full självkörning, t.ex. avseende:

  • Radarers upplösning och synfält vilket begränsar hur många  objekt som kan detekteras samt gör det svårt att skilja små objekt från större.
  • Räckvidd och samplingsfrekvens för lidar vilket kan skapa gap i laser-bilder.
  • Problem kopplade till regn och dimma som begränsar prestandan.

Det handlar inte om Ubers specifika implementation utan om den generella statusen av systemen. Det finns idag ingen standard för vad radar, lidar och kameror ska klara utan alla har sin egen uppfattning om vad sensorerna ska klara vilket gör det svårt för leverantörerna att klara.

”Alla gör vad de vill,” säger Kobe Marenko, VD för israeliska sensorföretaget Arbe Robotics. ”Alla har sin egen uppfattning om vad som är minimikraven.”

Källor

[1] Shiraz Ahmed: Suppliers confront shortcomings of self-driving tech, Rubber & Plastics New 2018-04-02 Länk