Etikettarkiv: Google

Didi startar försök med självkörande taxitjänst i Shanghai

Didi Chuxing, som brukar beskrivas som Kinas svar på Uber, kommer att starta försök med 30 självkörande (nivå 4)-bilar i Jiading-distriktet i Shanghai [1] [2]. Det verkar som om försöken åtminstone inledningsvis kommer att ha säkerhetsförare, på samma sätt som Waymo och Uber haft i sina tester i USA.

Didi har också beslutat att knoppa av sin verksamhet om självkörande fordon i ett separat bolag, på samma sätt som Google gjort med Waymo.

Egen kommentar

Jiading-distriktet är där hela världens fordonsindustri håller till, såväl fordonstillverkare som leverantörer. Det är alltså ett hett område för utveckling av ny teknik.

Källor

[1] Sean Szymkowski: China’s Uber announces self-driving-car pilot program, RoadShow by Cnet 30 augusti 2019 Länk

[2] Soumik Roy: DiDi to trial self-driving taxi service with public in Shanghai, China, Techwire Asia 2 september 2019 Länk

Säkerhet och risk

Få ämnen diskuteras lika ofta som säkerheten med automatiserade fordon, och så har det också varit under sommaren. En återkommande fråga är ”Hur vet man att ett automatiserat fordon är tillräckligt säkert, och vad exakt är tillräckligt säkert?” Ironin i det hela är att automationen ju väntas förbättra säkerheten.

Baserat på det som framförts i media är min slutsats att hela branschen börjat tänka om och omvärdera sina säkerhetsstrategier. Detta eftersom man insett att säkerställa säkerheten är mycket mer komplext (och kostsamt) än vad man trott från början. Det visar inte minst alla olyckor som inträffat med automatiserade fordon.

Många menar att det är mer transparens och samarbete som krävs, och att man inte har råd att tävla om säkerhet. För detta har man i Storbritannien skapat ett standardiseringsprogram som bland annat ska skapa riktlinjer för bedömning av säkerhetsnivåer. Enligt EE Times som samtalat med flera säkerhetsexperter och analytiker behöver fordonstillverkare och leverantörer göra följande för att övertyga allmänheten om att automatiserade fordon är säkra: 

  • Ta fram mätvärden för testning
  • Anamma en “safety by design”-process
  • Dela data som samlats in under tester
  • Bygga en återkopplingsloop 
  • Ta fram mer sofistikerade simuleringar på systemnivå

Detta ligger ganska mycket i linje med diskussionerna på årets upplaga av Automated Vehicle Symposium (AVS) 2019 som hölls i mitten av juli i Orlando (ja, det var varmt och fuktigt!).

Flera presentationer där tydde på en förändring i tänkandet om att mäta och säkerställa säkerhet. Det verkar som att man börjat flytta fokus från antal körda kilometer, hur ofta systemet frånkopplas samt antal olyckor, mot en mer nyanserad uppskattning av risk. Detta är positivt tycker jag och tyder på en viss mognad hos de olika aktörerna när det gäller säkerhetstänkandet. Däremot finns det fortfarande många oklarheter och vissa fall rena motsägelser:

  • Vi strävar efter att uppnå en säkerhetsnivå som är ”better than human but not perfection” och ”it means being free of unreasonable risk” konstaterade Chris Urmson från Aurora (tidigare Waymo/Google). På Aurora har man tagit fram en säkerhetsstrategi som omfattar en riskbaserad analys där målet är att uppnå en nivå som är ”better than human but not perfection”. 
  • I tyska projektet Pegasus har man tagit fram ett scenariobaserat ramverk som är tänkt att användas för att verifiera att en viss säkerhetsnivå uppnåtts. Där menar man dock att en ”reference needs to be established”, dvs. man vet inte vilken säkerhetsnivå som man strävar efter exakt. För att komma närmare detta föreslår de användning av drönare för att samla mer information om trafiken. 
  • Volvo Cars strategi är, enligt säkerhetsexperten Trent Victor, att åstadkomma en säkerhetsnivå som matchar mänskliga förare när de presterar som bäst. Alltså referensen är ”attentive, skilled, experienced driver performance”. 
  • På Uber menar man det finns inte ett enskilt sätt att bevisa säkerheten, men ett företag kan skapa argument som visar att “the risk of harm from the system has been reduced to an acceptable level”. Vad som är en acceptabel risknivå framgår dock inte. 

Personligen tycker jag att diskussionen missat att lyfta fram två viktiga aspekter: hur typgodkännadeprocessen behöver anpassas samt rollen av tredjepartsaktörer för säkerhetsbedömningen.

Materialet från vissa presentationer från AVS hittar ni här.

Blinda och synskadade

Att automatiserade fordon förväntas underlätta livet och öka mobilitet för synskadade är ingen hemlighet. Det är något som lyfts fram redan från dag ett, bland annat av Google (numera Waymo) när de visade en av sina första prototyper som transporterade en blind man. I praktiken är det dock få som aktivt arbetar med att designa sina lösningar just för sådana resenärer, men det finns några undantag. 

Aptiv och Lyft har ingått ett samarbete med amerikanska National Federation of the Blind för att tillsammans kunna skräddarsy mobilitetslösningar för synskadade och blinda. Utgångspunkten blir Las Vegas. De har också genom ett samarbete med LightHouse for the Blind and Visually Impaired tagit fram en punktskrivare för fordon som kan förse de blinda med en karta av den självkörande bilens väg och en beskrivning av fordonets layout [1, 2].

I Storbritannien har Auriggo inlett en pilot där Blind Veterans UK får testa en självkörande pod kallad Arthur vid deras center i Ovingdean. I nästa steg planerar man att erbjuda resor utanför centret som exempelvis till lokal pub eller strand [3].

Källor

[1] Lyft, Aptiv will supply rides to blind or visually impaired people. Länk 

[2] U.S. partnership brings self-driving technology to the blind. Länk

[3] Driverless cars tested by blind veterans. Länk

Waymos lidar tillgänglig för andra

Nu är det officiellt att Waymo kommer börja sälja en av sina lidarsensorer till andra aktörer, under förutsättning att dessa inte bedriver verksamhet som kan tänkas utmana Waymos egen robottaxitjänst [1].

Sensorn i fråga heter Laser Bear Honeycomb och är idag monterad på Waymos självkörande bilars stötfångare. Den har ett synfält på 360 grader horisontellt och 95 grader vertikalt och kan detektera objekt som befinner sig direkt framför sensorn. Den fungerar enligt principen ”multiple returns per pulse” vilket innebär att den kan se upp till fyra olika föremål som befinner sig i synfältet för en stråle. Detta ger en detaljerad bild av miljön.

Honeycomb kan beställas här

Egen kommentar

Här är det viktigt att notera att Honeycomb inte täcker hela synfältet som behövs för självkörning utan används i kombination med andra lidarsensorer.

Att utvidga sina vyer och affärsmodeller är något som Waymos moderföretag Google/Alphabet varit duktiga på, och att de väljer att lansera sin lidar som en enskild produkt är ingen direkt överraskning. Deras förhoppning är att detta ska driva upp produktionsvolymen och sänka tillverkningskostnaden. Frågan är bara hur Honeycomb kan klara sig bland alla andra lidarsensorer som finns på marknaden idag?

Källor

[1] Waymo, 2019-03-06 Länk

Suddiga utsikter

Vart är vi på väg, kan man travestera ett känt TV-program men då avse marknaden för självkörande fordon. Å ena sidan så finns de som ser en stor marknad i de 4 TB data som varje sådant fordon uppskattas generera. Å andra sidan så ser andra de problem och hinder som gjort att tidigare års optimistiska prognoser kommit på skam.

Exempelvis skriver Axios [1] att analytiker skrivit ner värdet av GMs AD-enhet Cruise Automation vilket kan tyda på att fordonstillverkarna har svårare att implementera teknologin än exempelvis Googles Waymo.

Medan andra analytiker pekar på en prognos att marknaden för komponenter till aktiva säkerhetssystem och till fordonsautomation kan nå ca 500 miljarder kronor redan om 10 år [2].

Så kanske man ska vänta tills ledtrådarna blivit lite tydligare innan man bestämmer sig?

Källor

[1] Joann Muller: Wall Street is split on self-driving cars, Axios 2019-01-30 Länk

[2] Global ADAS and Autonomous Driving Component Market to Reach $56.59 Billion by 2028, BIS Research 2019-01-30 Länk

A Startup’s Road to Self-Driving future

I tisdags deltog jag på ett event där Chris Urmson och Sterling Anderson från startupföretaget Aurora diskuterade automatiserade fordon. Eventet anordnades av MIT Club of Northern California och ägde rum på forskningscentret PARC, ett Xeroxföretag där många stora innovationer blivit till. Uppskattningsvis var, det ca 300 deltagare.

Chris har varit den som startat och lett Googles projekt om självkörande fordon (numera Waymo) innan han lämnade det 2016 för att starta Aurora ihop med Sterling, som fram till dess hade lett Teslas utveckling av aktiv säkerhet och Autopilot (som ni kanske minns hade han en tvistmed Tesla som de löste utan att gå till domstol). 

Diskussionen var väldigt livlig, mycket tack vare moderatorn Mark Platshon, som själv startat och finansierat flera företag (bland annat Tesla) samt arbetat på höga poster hos diverse fordonstillverkare. 

Så småningom kommer det att finnas en videoinspelning av diskussionen, men tills dess så får ni nöja er med mina minnesanteckningar:

  • Varför lämnar man drömjobbet på Google/Tesla för att starta ett nytt företag? Både Chris och Sterling hade väldigt diplomatiska svar på den här frågan, men om man läser mellan raderna så handlar det om att kunna göra saker på sitt sätt. De hade båda lärt sig hur vad som fungerar och vad som inte gör det och såg nu sin chans att göra saker på rätt sätt från början. Det inkluderar själva teknikutvecklingen men också hur man samverkar med andra, inklusive myndigheterna.
  • Det som gör deras nya företag Aurora unikt i en skog av andra likartade företag är att Aurora vet vart de vill gå (”we know where we are going” upprepades minst tio gånger under kvällen!). Företagets vision kan sammanfattas av tre ord: safelyquicklybroadly
  • Det som också gör företaget unikt och som Chris och Sterling anser vara garanti för framgång är dess medarbetare och mix av erfarenheter. Många av Auroras anställda är världsledande experter, och det är framförallt det som lockar investerare och samarbetspartners. 
  • Aurora vill utveckla en ”förare” som går att integrera i olika fordon. Företaget har samarbete med flera fordonstillverkare och tjänsteleverantörer för att säkerställa att den framtagna föraren går att integrera i olika fordon och tjänster. Det förstnämnda är dock prio; utan ett fungerande självkörande system i fordon blir det svårt att ha tjänster som bygger på självkörande fordon. I båda fall handlar det alltså om utveckling av kommunikationsplattformar och gränssnitt. Aurora vill inte ses som Tier 1. 
  • Enligt Chris och Sterling vill de låta fordonstillverkarna göra det de är bra på: bygga bilar. De ser inte något problem i att fordonstillverkarna själva utvecklar självkörande system; det är bara positivt, för då inser de hur svårt det är och blir imponerade av Auroras system. Själv skulle jag inte vara så säker på det – vi vet ju att fordonstillverkare genomgår en transformation och faktiskt har mycket know-how. 
  • Det kom en fråga om hur de ser på att AI utvecklas så mycket och hur de kan vara säkra på att den grunden de lägger nu kommer ”hålla” om ett par år. Det är stor skillnad mellan att integrera nya funktioner på en existerande mjukvaruarkitektur, och att göra det på en specialutvecklad arkitektur. Aurora har valt att utveckla en egen arkitektur med hjälp av världsledande experter som sätter normen inom området. Vad det gäller hårdvaran och relaterade nätverk så är det ett område som är under utveckling, och just nu vet man inte vad som fungerar bäst. 
  • Fjärrkontroll av självkörande fordon är inte uteslutet, men då för väldigt unika fall. I grund och botten ska ett självkörande system kunna klara sig självt. Detsamma gäller trådlös kommunikation: det är bra att ha men det ska absolut inte vara en förutsättning för självkörande fordon.
  • Högupplösta kartor behövs. Myten om att det är svårt att hålla dem uppdaterade är lite överdriven, för de är skapade med hjälp av sensorer som används för automatiserad körning. Det innebär att man kommer kunna göra kontinuerlig uppdatering av kartor utan extra kostnad. 
  • Just nu behövs en kombination av olika sensorer. När algoritmerna blivit bättre är det inte uteslutet att man kan klara sig med enbart kameror, men det lär dröja. Lidarkomponenter är inte alls dyra så det finns ingen anledning till att lidarer fortsätter att vara dyra när man börjat beställa dem i stora mängder. 
  • Säkerheten var definitivt ett ämne som diskuterades mest. En kombination av verkliga tester och simuleringar för specifika operativa domäner är vägen framåt, i kombination med en genomtänkt och väldokumenterad utvecklingsprocess.
  • Att ha en ständig dialog med myndigheterna är avgörande. Det handlar om att förklara för dem hur systemet är utvecklat, vilka standarder och principer man följt och hur man testat det så att de förstår varför tillverkaren tror på systemet. En slags ömsesidig förståelse. (Måste säga att jag blev förvånad över hur ofta de använde ordet ”explain” och ”believe” i det här sammanhanget!). Aurora har ständig dialog med myndigheterna. Det krävs ingen tredje part för att validera säkerheten, det är tillverkaren som har bäst kunskap om systemet. Man kan fråga sig då hur objektivt blir detta?
  • Det kommer inte heller finnas något ”körkort” för automatiserade fordon. Systemen är alltför komplexa och det går inte att ha något generiskt. Istället gäller det att förklara systemet för myndigheter och allmänhet på deras eget språk. 
  • Flygande bilar och liknande kan bli en möjlighet i en mer avlägsen framtid. Men just nu finns det många hinder, inte minst regelmässiga, som gör det mindre sannolikt för sådana lösningar att slå igenom. Dessutom krävs det otroligt många flygningar för att en sådan lösning ska vara kostnadseffektiv.
  • I början var det många, framförallt fordonstillverkare, som såg Googles arbete kring självkörande fordon som vansinne. Enligt Chris ändrades detta när Uber gick in i spelet. Då började fordonstillverkarna inse allvaret i det hela. Han påpekar också att förstå att fordonsindustrin inte är homogen; även hos de mest konservativa företagen finns det de som är futuristiska. 

Till slut vill jag dela med er att jag lärt mig en ny förkortning (!) – ACES (Autonomous, Connected, Electric, Shared). 

Waymo och Google använder AutoML för att bygga Machine Learning

Waymo, kända för sina självkörande fordon, är väl förtrogna med machine learning (ML) som de använder i nästan alla delar av sina fordon, från att läsa av omgivningen, att förutsäga hur trafikanter i närheten kommer agera och bestämma det egna fordonets nästa rörelse.

Med ett samarbete med Google AI och forskare från ”the Brain team” har forskare börjat undersöka möjligheten att använda ett ML-baserat system, AutoML, för att anpassa sina modeller till olika städer och miljöer. Frågan som samarbetet jobbar med att söka finna svar på är: kan AutoML generera högpresterande och snabba Neural Networks för en bil? Med prestanda menar de hur precision i svaren från näten och med snabbhet menar de hur snabbt nätet kan leverera ett svar. 

För att hitta en bra arkitektur för ett neuralt nätverk görs mycket manuellt arbete med att kominera olika typer av byggblock, t.ex. antal gömda noder och inlärningsfunktioner etc. 

Med hjälp av AutoML kunde de automatiskt kombinera dessa byggblock och på så sätt förbättra prestanda på två olika sätt: nya nätverk som var signifikant snabbare, fast med liknande precision och nätverk med högre precision fast med liknande snabbhet.
Alltså, genom att kombinera olika byggblock kunde de utforska olika konfiguration av nätverken. Så, med denna kunskap ville de även prova att skapa helt nya typer av nätverk. 

Eftersom det tar dagar att utvärdera en ny arkitektur skapades mini-problem baserade på original-problemet, dvs. bildsegmentering. Miniproblemen kunde analyseras på några timmar och nu kunde AutoML mjukvaran användas för att testa inte bara nya byggblock utan helt nya arkitekturer. Det som annars skulle ta år att köra på servrarna med multipla grafik-kort tog nu några timmar. 

Resultaten var enastående, 10 000 nya arkitekturer kunde skapas automatiskt, och testas på ett par veckor (istället för över ett år). Nätverk som var 20-30% snabbare och med mellan 8-10% högre precision kunde automatgenereras.

Källa:

[1] Automating the design of machine learning models for autonomous driving, Waymo 2019-01-15 Länk

Detta har hänt: Del II – CES

Första bilen debuterade på Consumer Electronics Show (CES) för 20 år sedan, och då var allt annat i fokus förutom just bilar. Men under de senaste åren har CES blivit mer av en autoshow då allt fler aktörer från fordonsbranschen passar på att visa upp sina prototyper och offentliggöra sina planer och ambitioner där. Årets upplaga av CES som pågick förra veckan var inget undantag. Jag var inte med på plats men att tolka av det som publicerats i media fick just automatiserade och uppkopplade fordon en hel del uppmärksamhet, även om det kanske var något mindre om självkörande fordon än förra året. Dessvärre verkar det som att ingen av aktörerna visat något riktigt nytt och revolutionerande, något som kan komma att förändra världen. Många har visat skyttlar och lösningar kopplade till mobilitetstjänster för varor och passagerare. Mycket igenkänning av aktiviteter och emotioner samt igenkänning av gester. Förvånansvärt lite fokus på röststyrning – men det betyder nog inte att man lämnat det spåret, bara att nyhetsvärdet avtagit. Som vanligt är mycket av det som visats på koncept- och mockupstadium oftast långt ifrån produktion men det finns undantag. 

Här är en översikt av det som visats där så får ni själva avgöra om mina slutsatser stämmer eller ej.

  • Veoneers Liv 3.0. Autolivs avknoppning Veoneer valde att fokusera på Collaborative Driving, något som företaget anser vara av stor vikt då de förutspår att de flesta fordon sålda år 2030 kommer erbjuda delad interaktion med mänskliga förare. Flera tekniska lösningar, som Pilot Assist Level 2+, framåt-tittande kameror, 5G och superdatorn Zeus, var integrerade i forskningsfordonet Liv 3.0 och kunde prövas på en avlyst bana. Dessa lösningar har utvecklats i samarbete med bl a Zenuity, Ericsson och MIT. Värt att notera här att Veoneer precis vunnit ett kontrakt med en global biltillverkare gällande konstruktion och produktion av ett nytt lidarsystem (tillverkad av Velodyne) för automatiserade bilar. Länk Film
  • Smart Eyes övervakning. Göteborgsbaserade Smart Eye visade sin teknologi för övervakning av föraren och igenkänning av trötthet och ouppmärksamhet. Detta gjordes i samarbete med NXP. En annan nyhet är att Smart Eye inleder samarbete med Ambarella, utvecklare av högupplösta videofilmer och halvledare för datorseende.  Länk Länk
  • Mercedes och Nvidia. Förra året började MB och Nvidia samarbeta kring ”cockpit of the future”. Nu ska företagen utöka samarbetet med optimering av AI och självkörande funktioner. Länk
  • Mercedes Urbanetic Van. Som vi rapporterat om innan är Urbanetic Van en plattform som går att nyttja för både transport av gods och passagerare, beroende på vilken kaross som man använder. Den har ingen ratt utan är tänkt att vara helt självkörande. På CES visades prototypen för transport av passagerare och betoningen var på ”informed trust”, dvs. hur man kan skapa tillit till det självkörande fordonet både mot egna passagerare och mot andra trafikanter. Länk
  • Yandex. En rysk jätte som vi skrivit om vid ett par tillfällen. Det som är mest spännande med dem är att de lyckats demonstrera sitt självkörande system i verklig trafik i Las Vegas. Gatorna var så klart kartlagda i förväg. Här kan ni se en journalists resa i Yandex-bil.
  • Nissans ”Invisible-to-Visible”. Genom att använda teknik för förstärkt verklighet har Nissans Intelligent Mobility möjliggjort för förarna och passagerarna att se det osynliga. Det är en interaktiv tredimensionell interaktion inne i fordonet hopkopplad med SAM (Seamless Autonomous Mobility) som analyserar data om fordonet och dess omgivning. Länk
  • Kias R.E.A.D. I sitt pressmeddelande skriver Kia att de förbereder sig för ”post autonomous driving era”. Som en del i detta presenterade företaget sitt Real-time Emotion Adaptive Driving (R.E.A.D.) System, som kan optimera och personifiera kabinutrymmet genom att analysera förarens emotionella tillstånd i realtid med hjälp av AI-baserad biosignaligenkänningsteknik. Systemet har utvecklats i samarbete med MIT. Länk
  • Bosch IoT Concept. Bosch valde att demonstrera mjukvara för delade mobilitetstjänster i form av en självkörande skyttel. Resenärerna kan beställa resan via en app som sedan parar dem ihop med andra resenärer som ska åt samma håll. Appen kan användas för att boka en specifik plats, låsa upp skytteln och få påminnelse om man glömt något i skytteln. Länk
  • Aisin Type C. Aisin Seiki som delvis ägs av Toyota är känt för att utveckla olika fordonskomponenter alltifrån bromsar till batterier. Men under CES visade Aisin Seiki upp två konceptfordon kallade ”i-mobility TYPE C”: en automatiserad personbil och en automatiserad limousine där sätena svänger för att hälsa på passagerare! Det finns ett framåtriktat förarsäte och fordonen kan framföras av en mänsklig förare. Konceptet inkluderar olika förarstödsfunktioner däribland Driver Monitoring System och Facial Action Coding SystemLänk
  • Densos framtida mobilitet. Denso visade också ett skyttel-liknande fordon, Urban Moves, och i den fanns allt från molntjänster till informationssäkerhetslösningar baserade på block chain, logistiktjänster, system för övervakning av förare och system för hantering av fordonsflottor. Länk
  • Continentals CUbE och leveransrobotar. CUbE är egentligen Continentals egna anpassning av EasyMiles skyttel. Hittills har vi sett den för transport av passagerare och nu visades hur den kan användas för leverans av gods i samarbete med små leveransrobotar som distribuerar paket till slutkunden. Tänk er: en robot i form av en hund som springer runt omkring med paket på ryggen. Länk
  • AEV Robotics fordonskoncept MVS. Detta är ett fordonskoncept som är likt Mercedes och Toyotas: ett modulärt fordon med utbytbar kaross. Det är svårt att säga vad som är unikt med det, mer än att det utvecklats av ett australienskt startupp-företag som hittills arbetat i tysthet. Länk
  • Surf ‘N Curve från BCS Automotive Interface Solutions. BCS är inget företag som man läser om i media varje dag. Vanligtvis utvecklar fordonskomponenter men på CES visade de ett fordonskoncept som de döpt till Surf ‘N Curve. Det påstås ha en holistisk interiördesign och när den inte kör själv kan föraren styra den med hjälp av två joystickar. Länk
  • ZFs och e.Go People Mover. Tyska ZF visade en mikrodator kallad ZF ProAI RoboThink som de beskriver som ”the most powerful AI-capable supercomputer in the mobility industry”. De visade också i samarbete med e.Go ett skyttelfordon som är redo för marknadsintroduktion och som fått en första kund, Transdev. Länk
  • Hyundai Mobis Concept. Här ligger fokus på framtida interaktion och upplevelse. Konceptfordonet är utrustat med system för rörelseigenkänning (läs: virtuell touch), system för igenkänning av känslor samt vindrutor som fungerar som skärmar. Utöver det är det utrustat med “Communication Lighting Concept” som möjliggör för det automatiserade fordonet att kommunicera med fotgängare via ljussignaler. Länk
  • Baidus Apollo 3.5. Nu är en ny version av Baidus öppna plattform tillgänglig. Utöver det betonade Baidu att de kommer att testa 100 st robo-taxis under 2019 i Changsha i Kina. Länk
  • Toyotas Guardian. När Toyotas system för automatiserade körning kallat Guardian blir redo för marknadsintroduktion inom ett par år kommer det vara tillgängligt för andra aktörer. Detta är intressant då vi inte sett sådana ambitioner från andra traditionella fordonstillverkare. Länk
  • IBMs AI-assistent Watson. IBM demonstrerade Watson, kanske mest känd för allmänheten som schack-dator, som assistent för resenärer att kommunicera med självkörande skyttlar. Problemet man vill lösa är att man kanske kommer att åka i många olika typer av skyttlar som har olika användargränssnitt. Med Watson kan man få hjälp, ungefär som med Google Assistant. Länk
  • Bytons M-Byte. Ett stort pressuppbåd följde visningen av den elbilen M-Byte från kinesiska startup-bolaget Byton. Bilen, som är designad för självkörning på Nivå 3 enligt SAE-skalan, fick kanske störst uppmärksamhet för den gigantiska 49″-skärmen framför framstolarna. Länk

Baidus nya partnerskap

Förra veckan skrev vi att Baidu ingått ett samarbete med Ford. Kort därefter blev det känt att företaget även inlett ett samarbete med Volvo Cars [1, 2].

Under detta nya samarbete kommer Volvo Cars att få tillgång till Apollo, Baidus öppna mjukvaruplattform, med målet att utveckla ett eldrivet automatiserat fordon. Tanken är att fordonet ska massproduceras i Kina och användas för taxiliknande tjänster.

Utöver detta har Biadu visat ett automatiserat fordon framtaget i samarbete med FAW Hongqi [2]. Fordonet ska motsvara automations nivå 4 enligt SAE-skalan och kommer till att börja med att testas på motorvägar runt Peking.

Egen kommentar

Baidu kallas ofta för Kinas Google, och med dessa partnerskap börjar företaget alltmer påminna om Waymo, som på ett eller annat sätt knutit till sig en rad olika företag och som satsar på att utveckla mjukvara för automatiserade fordon. Men det finns en betydlig skillnad mellan dem – Baidu har öppnat upp sin mjukvaruplattform Apollo som attraherat runt 127 olika aktörer. Kan vi vänta oss något liknande från Waymo inom snar framtid? Eller har Waymo någon annan briljant plan?

Källor

[1] Volvo Car Group Newsroom. olvo Cars and Baidu join forces to develop and manufacture autonomous driving cars. 2018-11-01 Länk

[2] Blanco, S., Forbes. Baidu, Volvo Partner Up For Electric Robo-Taxis In China. 2018-11-01 Länk

Lästips

Trafikflöden och självkörande fordon. Trafikverket har publicerat en ny version av rapporten Trafikflöden och självkörande fordon – Drive Me försökssträcka som fokuserar på trafikflöde och vägnätets kapacitet, samt hur dessa kan komma att förändras vid introduktion av autonoma fordon.

Motorcyklar som kan se. Startuppföretaget Ride Vision har lanserat, vad som påstås vara, världens första kollisionsundvikande teknologi (Collision Aversion Technology) för motorcyklar. Den har en 360-graders vy runt motorcykeln och kan installeras på befintliga motorcyklar för att ge motorcyklister stöd i säkerhetskritiska situationer. Länk

För och nackdelar med automatiserade fordon. En grupp forskare från USA har publicerat en artikel som fördjupar sig i hur millenials upplever automatiserade fordon, och vilka för- och nackdelar de ser med dem. Artikeln heter Perceived benefits and concerns of autonomous vehicles: An exploratory study of millennials’ sentiments of an emerging market. Länk

Försäkringar. Casualty Actuarial Society (CAS) diskuterar i en ny rapport hur försäkrings- och riskhanteringsindustrin har en kritisk roll för en ansvarsfull och kostnadseffektiv introduktion av automatiserade fordon på marknaden. Rapporten heter Automated Vehicles and the Insurance Industry – A Pathway to Safety: The Case for Collaboration. Länk

Vilket system är minst distraherande? American Automobile Association (AAA) har i samarbete med en forskargrupp från University of Utah publicerat en ny rapport där de jämfört några olika infotainment system i fordonsmodeller 2017/18. Slutsatsen att Googles och Apples produkter är minst distraherande för förare. Rapporten heter Visual and Cognitive Demands of Using Apple’s CarPlay, Google’s Android Auto and Five Different OEM Infotainment Systems. Länk

Framtida parkeringsplatser. En grupp forskare från University of Toronto har utforskat hur framtida parkeringar kan designas. Deras studie heter Designing parking facilities for autonomous vehicles. Länk