Etikettarkiv: Nvidia

AB Volvo samverkar med Nvidia

Volvokoncernen har skrivit samarbetsavtal med Nvidia om att använda Nvidias AI-plattform för träning och simulering vid utveckling av självkörande fordon [1]. Inledningsvis kommer Volvo att använda plattformen för kommersiella kundpiloter [2].

Även Volvo Cars och Veoneer har skrivit samarbetsavtal med Nvidia.

Egen kommentar

Senare på tisdagskvällen arrangerade Nvidia Midsummer AI Ecosystem Reception i Göteborg med Nvidias grundare och vd Jensen Huang och representanter från både Volvo Group och Volvo Cars som talare. Både Huang och Henrik Färnstrand från Volvo Group kommenterade det nya samarbetet. Huang påpekade att transporter är en av fyra industrier som Nvidia arbetar mot med AI. Nvidia har hårdvara samt verktyg både för att träna modeller och simuleringsmiljöer för att generera data för att träna modeller för fordon. Färnstrand lyfte fram att AI kommer att vara del av allt Volvo Group gör och att AI inte är en mindre förändring utan ett stort kliv.

Stort tack till vår kollega David Lindström för rapporten från eventet!

Källor

[1] Volvo i avtal med Nvidia om AI-plattform, Affärsvärlden 2019-06-18 Länk

[2] Lars Stenqvist: Volvo Group and NVIDIA in world class automation partnership, LinkedIn 2019-06-18 Länk

Tesla Autonomy Day

I måndags höll Tesla ett event kallat Autonomy Day där de berättade om flera uppmärksammade nyheter. Till skillnad från tidigare event var detta mycket mer fokuserat på teknologin som man öppet och relativt detaljerat gick igenom, och flera skribenter verkar ha blivit imponerade [1, 2].

Till att börja med har Tesla utvecklat ett eget chip, som ska vara specialanpassat för just Teslas självkörande fordon, till skillnad från t.ex. Nvidias som är mer generellt och som används av många konkurrenter. Teslas chip, som ska tillverkas av Samsung, ska t.ex. vara betydligt snabbare på bildbehandling [1]. Detta nya chip sitter i processorerna i alla Tesla-bilar som tillverkas nu, vilket gör att de hårdvarumässigt redan är klara för att bli helt självkörande, enligt Elon Musk. Nästa år ska man släppa en ny mjukvara för detta vilket gör att det då direkt kan finnas en miljon helt självkörande bilar på marknaden [3]. Och om 2 år kommer nästa generation av chippet.

Vad gäller sensorer så fortsätter Tesla att satsa på radar, kameror, GPS, kartor och kommunikation – men inte lidar. I själva verket anser Elon Musk att de företag som satsar på lidar är dömda till undergång, ”doomed” [4]. Lidarer är dyra och onödiga, säger han. Dessutom drar de mycket energi. För att klara svårare siktförhållanden – där lidar annars har sin styrka – satsar Tesla istället på utveckling av kameror och maskininlärning.

Vad gäller just maskininlärning så har Tesla en fördel i att de låtit alla sina bilar på marknaden (som har tillräckligt med sensorer) sedan flera år samla in data som sedan används för att träna AI-systemet [2]. Man har då också kunna inrikta träningen på speciellt svåra objekt, som t.ex. cyklar på cykelställ på bilar (är det en bil eller en cykel?).

Den kommande mjukvaran kommer också att innehålla funktioner för att låta bilarna – om föraren så önskar – köra mer aggressivt, i vad Elon Musk kallar ”Los Angeles trafikmod” eftersom det krävs en aggressiv körstil för att ta sig fram i trafiken där [5].

Med den nya självkörningsförmågan så möjliggörs också robot-taxi, och Tesla planerar nu för en sådan tjänst, men med en ny affärsmodell. Tanken är nämligen att använda Tesla Model 3-bilar som tidigare leasats till kunder [6]. Kunderna får då ta den största delen av värdeminskningen, och robot-taxitjänstens kunder bryr sig förstås inte om bilarna varit nya eller begagnade. Det innebär också att de som leasat Model 3 inte kommer att ha möjlighet att köpa loss bilarna när leasingperioden är slut.

På frågan om hur mycket Tesla satsar på utvecklingen av självkörning svarar Elon Musk ”det är i princip hela vår kostnadsstruktur”. Han säger också att det är ekonomiskt vansinne att idag köpa en annan bil än en Tesla, för ”om tre år kommer det att vara som att äga en häst” [3].

Här kan ni se en video från eventet (den börjar med en snygg men lååång reklamfilm, själva eventet startar efter 1 timme och 9 min).

Egen kommentar:

Här kändes det verkligen att Tesla har sin bakgrund i elektronikindustrin snarare än i fordonsindustrin – man gör saker som en traditionell biltillverkare nog inte skulle ge sig på.

Filmen innehåller också en bra beskrivning av hur maskininlärning fungerar allmänt och i fordonssammanhang, för oss som inte är insatta i ämnet.

Men min känsla av att se videon är att trots det positiva budskapet så verkar inte Elon Musk riktigt vara i form. Men så är ju Tesla också – återigen – ifrågasatta vad gäller att leverera vad de lovat, nu avseende volymer av Model 3, och också vad gäller själva affären, med lägre intäkter pga sänkta priser och fortsatt höga kostnader. Därför är det extra intressant med den nya affärsmodellen. Men den förutsätter ju att allt finns på plats och robot-taxitjänsten verkligen blir en framgång.

Samtidigt finns det fler moln på Teslas himmel: bland annat en bil i Shanghai som spontant börjat brinna [7]; och en studie som ifrågasätter om Teslas statistik för hur många olyckor de undvikit med sin teknologi verkligen stämmer, då urvalet kanske inte varit representativt [8].

Källor:

[1] Alexandria Sage, Vibhuti Sharma: Tesla says robotaxis coming to U.S. roads next year, slams rivals’ use of Lidar, Reuters 2019-04-22 Länk

[2] Brad Templeton: Tesla Bets Farm On Neural Network Based Autonomy With Impressive Presentation, Forbes 2019-04-22 Länk

[3] Tesla’s self-driving robotaxis will be on US roads by next year, promises Elon Musk, Livemint 2019-04-23 Länk

[4] Matt Burns:
‘Anyone relying on lidar is doomed,’ Elon Musk says, TechCrunch 2019-04-22 Länk

[5] Sean O’Kane: Elon Musk says Tesla will allow aggressive Autopilot mode with ‘slight chance of a fender bender’, The Verge 2019-04-22 Länk

[6] Will Tesla’s Leasing Program Disrupt The Ride-Sharing Market? CleanTechnica 2019-04-21 Länk

[7] Brenda Goh, Yiley Sun: Model S fire video adds to Tesla woes pre-results, Reuters 2019-04-22 Länk

[8] Edward Niedermeyer: MIT Study Showing High ”Functional Vigilance” Among Autopilot Users Comes With Massive Caveats, The Drive 2019-04-10 Länk

Senaste från Nvidia

Under veckan höll Nvidia sin årliga GPU Technology Conference i Kalifornien, och i samband med den presenterades en uppdaterad version av plattformen för automatiserad körning Nvidia Drive AP2X 9.0 [1]. Den kommer att släppas till kunder under nästa kvartal.

Plattformen har blivit berikad med en rad nya funktioner, som exempelvis detektering om en kamera blivit blind vilket förväntas förbättra fordonens förmåga att visualisera och reagera på den fysiska världen runt dem.

En annan nyhet på plattformen är ett mjukvarulager som heter Safety Force Field (SFF) och som analyserar och predikterar dynamiken hos andra trafikanter i fordonets omgivning. Den inkluderar också kollisionsundvikande åtgärder och är validerad med hjälp av data från både motorvägs- och stadskörning. 

Utöver plattformen har företaget öppnat upp sin mjukvarusimulator Drive Constellation som är en virtuell testbana [2]. I denna ska utvecklare kunna testa sin mjukvara under olika väder- och ljusförhållanden. 

Nvidia har också lanserat en liten AI-dator kallad Jetson Nano, som riktar sig till utvecklare, tillverkare och andra entusiaster som letar efter en billig dator för att utveckla neurala nätverk, olika typer av sensorer och olika typer av robotik [3]. Planen är att börja sälja Jetson Nano i juni för 99 dollar till konsumenter och för 129 dollar till företag. Företagsmodellen av datorn ska vara testad och klar att sätta in direkt i produkter av olika slag.

Källor

[1] Nvidia. Mathematically Rigorous and Validated in Simulation, Safety Driving Decision Algorithms Protect Against Unpredictability of Real-World Traffic. 2019-03-18 Länk

[2] Nvidia. NVIDIA DRIVE Constellation Now Available — Virtual Proving Ground for Validating Autonomous Vehicles. 2019-03-18 Länk

[3] Nvidia. NVIDIA Announces Jetson Nano: $99 Tiny, Yet Mighty NVIDIA CUDA-X AI Computer That Runs All AI Models. 2019-03-18Länk

Softbank säljer Nvidia, köper Nuro

Japanska investeringsbanken Softbanks Vision Fund har sålt av hela sitt innehav i elektroniktillverkaren Nvidia för 3,6 miljarder dollar [1]. Det är ytterligare ett slag mot Nvidia, som haft flera motgångar på senare tid, speciellt i Kina.

Istället har Vision Fund nu investerat 940 miljoner dollar i startup-företaget Nuro [2]. Nuro, med grundare från Google, utvecklar ett distributionsfordon för leveranser av livsmedel.

Egen kommentar:

Nvidias problem vad gäller automatisering av fordon kan vara kopplat till att kostnaden för komponenterna är höga. På årets CES-mässa lanserade AMD nya CPU och GPU som var såväl snabbare, energi-effektivare som 20-25% billigare än Intels och Nvidias. Även ARM finns med i denna giganternas kamp. Vem vinner?

Källor:

[1] Elizabeth Schulze: SoftBank’s investment fund dumps entire $3.6 billion stake in Nvidia, CNBC 2019-02-06 Länk

[2] Driverless delivery startup Nuro gets $940 million SoftBank investment, Reuters 2019-02-11 Länk

Vatten och AI

En rapport från ”Center of U.S. auto manufacturing” höjer ett varningens finger kring prestanda hos AI-baserade algoritmer för objektidentifiering i samband med regn. Hayder Radha, professor vid Michigan State University, bekräftar detta problem och säger: I tester missar algoritmen ca 20% av alla objekt i lätt regn, om regnet tredubblas, dubbleras felfrekvensen. Även till synes små förändringar som färgskiftningar på grund av årstiderna kan påverka fordonens radar och lidarsensorer säger Prof. Radha.

Trots dessa utmaningar storsatsar bl.a. Hyundai på AI-teknologi för självkörande fordon. De har bl.a. investerat i startupföretaget Allegro.ai. Även Boston-baserade företaget Optimus Ride satsar med Nvidias Drive AGX Xavier plattformar för att starta en flotta med självkörande fordon i specifika områden t.ex. högskolekcampus och andra zoner för självkörande fordon.

Källa: 

[1] George Leopold: Study Pours Cold Water on AI Driving Algorithms, Datanami 2019-01-02 Länk

Detta har hänt: Del II – CES

Första bilen debuterade på Consumer Electronics Show (CES) för 20 år sedan, och då var allt annat i fokus förutom just bilar. Men under de senaste åren har CES blivit mer av en autoshow då allt fler aktörer från fordonsbranschen passar på att visa upp sina prototyper och offentliggöra sina planer och ambitioner där. Årets upplaga av CES som pågick förra veckan var inget undantag. Jag var inte med på plats men att tolka av det som publicerats i media fick just automatiserade och uppkopplade fordon en hel del uppmärksamhet, även om det kanske var något mindre om självkörande fordon än förra året. Dessvärre verkar det som att ingen av aktörerna visat något riktigt nytt och revolutionerande, något som kan komma att förändra världen. Många har visat skyttlar och lösningar kopplade till mobilitetstjänster för varor och passagerare. Mycket igenkänning av aktiviteter och emotioner samt igenkänning av gester. Förvånansvärt lite fokus på röststyrning – men det betyder nog inte att man lämnat det spåret, bara att nyhetsvärdet avtagit. Som vanligt är mycket av det som visats på koncept- och mockupstadium oftast långt ifrån produktion men det finns undantag. 

Här är en översikt av det som visats där så får ni själva avgöra om mina slutsatser stämmer eller ej.

  • Veoneers Liv 3.0. Autolivs avknoppning Veoneer valde att fokusera på Collaborative Driving, något som företaget anser vara av stor vikt då de förutspår att de flesta fordon sålda år 2030 kommer erbjuda delad interaktion med mänskliga förare. Flera tekniska lösningar, som Pilot Assist Level 2+, framåt-tittande kameror, 5G och superdatorn Zeus, var integrerade i forskningsfordonet Liv 3.0 och kunde prövas på en avlyst bana. Dessa lösningar har utvecklats i samarbete med bl a Zenuity, Ericsson och MIT. Värt att notera här att Veoneer precis vunnit ett kontrakt med en global biltillverkare gällande konstruktion och produktion av ett nytt lidarsystem (tillverkad av Velodyne) för automatiserade bilar. Länk Film
  • Smart Eyes övervakning. Göteborgsbaserade Smart Eye visade sin teknologi för övervakning av föraren och igenkänning av trötthet och ouppmärksamhet. Detta gjordes i samarbete med NXP. En annan nyhet är att Smart Eye inleder samarbete med Ambarella, utvecklare av högupplösta videofilmer och halvledare för datorseende.  Länk Länk
  • Mercedes och Nvidia. Förra året började MB och Nvidia samarbeta kring ”cockpit of the future”. Nu ska företagen utöka samarbetet med optimering av AI och självkörande funktioner. Länk
  • Mercedes Urbanetic Van. Som vi rapporterat om innan är Urbanetic Van en plattform som går att nyttja för både transport av gods och passagerare, beroende på vilken kaross som man använder. Den har ingen ratt utan är tänkt att vara helt självkörande. På CES visades prototypen för transport av passagerare och betoningen var på ”informed trust”, dvs. hur man kan skapa tillit till det självkörande fordonet både mot egna passagerare och mot andra trafikanter. Länk
  • Yandex. En rysk jätte som vi skrivit om vid ett par tillfällen. Det som är mest spännande med dem är att de lyckats demonstrera sitt självkörande system i verklig trafik i Las Vegas. Gatorna var så klart kartlagda i förväg. Här kan ni se en journalists resa i Yandex-bil.
  • Nissans ”Invisible-to-Visible”. Genom att använda teknik för förstärkt verklighet har Nissans Intelligent Mobility möjliggjort för förarna och passagerarna att se det osynliga. Det är en interaktiv tredimensionell interaktion inne i fordonet hopkopplad med SAM (Seamless Autonomous Mobility) som analyserar data om fordonet och dess omgivning. Länk
  • Kias R.E.A.D. I sitt pressmeddelande skriver Kia att de förbereder sig för ”post autonomous driving era”. Som en del i detta presenterade företaget sitt Real-time Emotion Adaptive Driving (R.E.A.D.) System, som kan optimera och personifiera kabinutrymmet genom att analysera förarens emotionella tillstånd i realtid med hjälp av AI-baserad biosignaligenkänningsteknik. Systemet har utvecklats i samarbete med MIT. Länk
  • Bosch IoT Concept. Bosch valde att demonstrera mjukvara för delade mobilitetstjänster i form av en självkörande skyttel. Resenärerna kan beställa resan via en app som sedan parar dem ihop med andra resenärer som ska åt samma håll. Appen kan användas för att boka en specifik plats, låsa upp skytteln och få påminnelse om man glömt något i skytteln. Länk
  • Aisin Type C. Aisin Seiki som delvis ägs av Toyota är känt för att utveckla olika fordonskomponenter alltifrån bromsar till batterier. Men under CES visade Aisin Seiki upp två konceptfordon kallade ”i-mobility TYPE C”: en automatiserad personbil och en automatiserad limousine där sätena svänger för att hälsa på passagerare! Det finns ett framåtriktat förarsäte och fordonen kan framföras av en mänsklig förare. Konceptet inkluderar olika förarstödsfunktioner däribland Driver Monitoring System och Facial Action Coding SystemLänk
  • Densos framtida mobilitet. Denso visade också ett skyttel-liknande fordon, Urban Moves, och i den fanns allt från molntjänster till informationssäkerhetslösningar baserade på block chain, logistiktjänster, system för övervakning av förare och system för hantering av fordonsflottor. Länk
  • Continentals CUbE och leveransrobotar. CUbE är egentligen Continentals egna anpassning av EasyMiles skyttel. Hittills har vi sett den för transport av passagerare och nu visades hur den kan användas för leverans av gods i samarbete med små leveransrobotar som distribuerar paket till slutkunden. Tänk er: en robot i form av en hund som springer runt omkring med paket på ryggen. Länk
  • AEV Robotics fordonskoncept MVS. Detta är ett fordonskoncept som är likt Mercedes och Toyotas: ett modulärt fordon med utbytbar kaross. Det är svårt att säga vad som är unikt med det, mer än att det utvecklats av ett australienskt startupp-företag som hittills arbetat i tysthet. Länk
  • Surf ‘N Curve från BCS Automotive Interface Solutions. BCS är inget företag som man läser om i media varje dag. Vanligtvis utvecklar fordonskomponenter men på CES visade de ett fordonskoncept som de döpt till Surf ‘N Curve. Det påstås ha en holistisk interiördesign och när den inte kör själv kan föraren styra den med hjälp av två joystickar. Länk
  • ZFs och e.Go People Mover. Tyska ZF visade en mikrodator kallad ZF ProAI RoboThink som de beskriver som ”the most powerful AI-capable supercomputer in the mobility industry”. De visade också i samarbete med e.Go ett skyttelfordon som är redo för marknadsintroduktion och som fått en första kund, Transdev. Länk
  • Hyundai Mobis Concept. Här ligger fokus på framtida interaktion och upplevelse. Konceptfordonet är utrustat med system för rörelseigenkänning (läs: virtuell touch), system för igenkänning av känslor samt vindrutor som fungerar som skärmar. Utöver det är det utrustat med “Communication Lighting Concept” som möjliggör för det automatiserade fordonet att kommunicera med fotgängare via ljussignaler. Länk
  • Baidus Apollo 3.5. Nu är en ny version av Baidus öppna plattform tillgänglig. Utöver det betonade Baidu att de kommer att testa 100 st robo-taxis under 2019 i Changsha i Kina. Länk
  • Toyotas Guardian. När Toyotas system för automatiserade körning kallat Guardian blir redo för marknadsintroduktion inom ett par år kommer det vara tillgängligt för andra aktörer. Detta är intressant då vi inte sett sådana ambitioner från andra traditionella fordonstillverkare. Länk
  • IBMs AI-assistent Watson. IBM demonstrerade Watson, kanske mest känd för allmänheten som schack-dator, som assistent för resenärer att kommunicera med självkörande skyttlar. Problemet man vill lösa är att man kanske kommer att åka i många olika typer av skyttlar som har olika användargränssnitt. Med Watson kan man få hjälp, ungefär som med Google Assistant. Länk
  • Bytons M-Byte. Ett stort pressuppbåd följde visningen av den elbilen M-Byte från kinesiska startup-bolaget Byton. Bilen, som är designad för självkörning på Nivå 3 enligt SAE-skalan, fick kanske störst uppmärksamhet för den gigantiska 49″-skärmen framför framstolarna. Länk

Svenska aktörer samarbetar med Nvidia

Volvo Cars kommer att fördjupa sitt samarbete med chipjätten Nvidia [1]. Samarbetet går ut på att utrusta nästa generation av Volvo-bilar med Nvidias datorsystem Drive AGX Xavier. Den kommer framförallt att användas för mer avancerade och säkrare förarstödssystem.

Dessa bilar väntas vara på marknaden i början av 2020-talet och kommer vara uppbyggda på Scalable Product Architecture 2 (SPA 2) och utrustade med sensorer som möjliggör en 360-graders vy runt bilen. Volvo Cars har inte avslöjat vilka bilmodeller det rör sig om exakt.

Autolivs avknoppning Veoneer har också ett samarbete med Nvidia [2]. I sin nya superdator Zeus som ska möjliggöra automatiserad körning (motsvarande SAE-nivå 4) kommer företaget att använda Drive AGX Xavier. Detta görs ihop med Zenuity, Veoneers och Volvo Cars gemensamma mjukvaruföretag.

Voeneer beskriver Zeus som en ”hjärna” som fogar samman data från kameror, radar och andra sensorer, tolkar situationen och tar nödvändiga åtgärder. Den väntas på marknaden 2021. 

Källor

[1] Volvo Cars Media. Your future Volvo will burst with computing power. 2018-10-10 Länk

[2] Veoneer PR. Veoneer Introduces Autonomous Driving Supercomputer Based on Zenuity Software and NVIDIA Processing Power. 2018-10-10 Länk

Detta har hänt under sommaren – Del II

Huawei + Audi. För att accelerera utvecklingen av smarta fordon har Audi och Huawei inlett ett strategiskt samarbete. Fokus kommer ligga på att gemensamt ta fram lösningar för uppkopplade fordon. De kommer också att utveckla utbildningsprogram för att stärka kompetensen hos experter inom området.

Informationssäkerhet – vad krävs för det? Två ingenjörer från Cruise Automation har publicerat ett dokument som belyser informationssäkerheten i automatiserade fordon. En av de stora utmaningarna är kopplad till den snabba utvecklingstakten för mjukvaran, så att man inte hinner utveckla och genomföra noggranna riskanalyser i samma takt. En annan utmaning ligger i att automatiserade system installeras i befintliga fordon som oftast byggts av någon annan aktör och som har ett okänt antal säkerhetsbrister.

Boschs och Daimlers taxitjänst. De tyska industrijättarna Bosch och Daimler kommer att börja testa automatiserade taxibilar. Testerna kommer att ske i Kalifornien (Silicon Valley) med en säkerhetsförare bakom ratten. Företagen har inte avslöjat hur många bilar det rör sig om exakt. Kopplat till detta kommer de att samarbeta med Nvidia.

Nytt lidarsystem från Baraja. Startuppföretaget Baraja har utvecklat ett nytt sensorsystem för automatiserad körning, Spectrum-Scan, som använder ljus med skiftande våglängder för detektera objekt. Systemet innehåller upp till fyra sensorer som kopplas samman via fiberoptiska kablar till en central processor. Det påstås kosta bara en bråkdel av en vanlig lidar-lösning vilket gör den skalbar för massproduktion.

Continental går med i DeepDrive. För att stärka och snabba upp sin utveckling inom AI-området har tyska Continental gått med i AI-konsortiet DeepDrive vid University of California, Berkeley.

Ny strategi på gång i Frankrike. Frankrike har tillsatt en utredare med uppgift att utveckla en nationell strategi för automatiserad mobilitet – inklusive nya lagar, regler för experiment och pilotprojekt samt säkerhets- och integritetsfrågor. De första lagförslagen väntas komma i slutet av året. Målet är att kunna lansera högt automatiserade fordon någon gång mellan 2020 och 2022.

Mobileye i nya samarbeten. Mobileye har under sommaren inlett två nya samarbeten. Ett med Baidu som går ut på att integrera Mobileyes Responsibility Sensitive Safety (RSS)-modell i Baidus öppna plattform Apollo. Det andra samarbetet är med tyska ZF för att tillsammans ta fram en ny kamera, ZF S-Cam4, som väntas vara redo i slutet av året.

RioTintos självkörande tåg.Gruvföretaget RioTinto har tagit fram ett helt automatiserat tåg för transport av malm. I juli gick det på sin första resa från gruvan Mount Tom Price till Cape Lamberts hamn i Australien.

Nvidias nya rön

Nvidia har lanserat Nvidia Drive IX som är ett programvarupaket som gör det möjligt för fordonstillverkare att övervaka förare och varna dem vid behov [1].

Drive IX använder sig av djuplärande-algoritmer som körs på Nvidia Drive-plattformen och kameror riktade mot förarens ansikte eller mot fordonets omgivning. Den är bland annat kapabel av att utföra ansikts- och taligenkänning, läsa av blickbeteende, gester och läppar, bedöma huvudposition, samt ta in faktorer från trafiken runtomkring. För att åstadkomma detta är algoritmerna baserade på en teknik som heter landmärkes-lokalisering.

Nvidia refererar till Drive IX det en intelligent co-pilot.

Egen kommentar

Att identifiera och kartlägga förarens och passagerarnas aktiviteter är viktigt både i manuellt framförda och automatiserade fordon. SmartEye och RISE Viktoria bedriver också ett forskningsprojekt inom området kallat DRAMA– Driver and passenger activity mapping (finansieras av FFI).

Enligt Persistance Market Research utgör diverse sensorsystem för avkänning av passagerare i fordon en stor del marknaden (uppskattas bli ca 2 miljarder dollar i slutet av 2022).

Källor

[1] Nvidia. AI Is My Co-pilot: How DRIVE IX Helps Humans Stay Focused. 2018-06-27 Länk

NAV Alliance

Volkswagen, Aquantia, Bosch, Continental och Nvidia har skapat en ny allians kallad Networking for Autonomous Vehicles (NAV) Alliance [1].

Målet är att tillsammans adressera komplicerade backend-problem som krävs för att automatiserade fordon ska kunna nå marknaden i stor skala.

Den primära uppgiften är att försöka standardisera dataöverföring med hög bandbredd mellan sensorer och andra enheter i automatiserade fordon. En annan uppgift är att skapa gemensamma förfaranden och krav för system i automatiserade fordon kring säkerhet och övergripande tillförlitlighet, och att utbilda allmänheten om automatiserade fordon – något som behövs för sådana fordon ska bli verklighet.

NAV Alliance hoppas att fler aktörer ansluter.

Källor

[1] Krok, A. CNN. VW, Nvidia, Bosch, others team up to suss out the back end of autonomy. 2018-06-26 Länk