Kategoriarkiv: Sensorer

Tesla Autonomy Day

I måndags höll Tesla ett event kallat Autonomy Day där de berättade om flera uppmärksammade nyheter. Till skillnad från tidigare event var detta mycket mer fokuserat på teknologin som man öppet och relativt detaljerat gick igenom, och flera skribenter verkar ha blivit imponerade [1, 2].

Till att börja med har Tesla utvecklat ett eget chip, som ska vara specialanpassat för just Teslas självkörande fordon, till skillnad från t.ex. Nvidias som är mer generellt och som används av många konkurrenter. Teslas chip, som ska tillverkas av Samsung, ska t.ex. vara betydligt snabbare på bildbehandling [1]. Detta nya chip sitter i processorerna i alla Tesla-bilar som tillverkas nu, vilket gör att de hårdvarumässigt redan är klara för att bli helt självkörande, enligt Elon Musk. Nästa år ska man släppa en ny mjukvara för detta vilket gör att det då direkt kan finnas en miljon helt självkörande bilar på marknaden [3]. Och om 2 år kommer nästa generation av chippet.

Vad gäller sensorer så fortsätter Tesla att satsa på radar, kameror, GPS, kartor och kommunikation – men inte lidar. I själva verket anser Elon Musk att de företag som satsar på lidar är dömda till undergång, ”doomed” [4]. Lidarer är dyra och onödiga, säger han. Dessutom drar de mycket energi. För att klara svårare siktförhållanden – där lidar annars har sin styrka – satsar Tesla istället på utveckling av kameror och maskininlärning.

Vad gäller just maskininlärning så har Tesla en fördel i att de låtit alla sina bilar på marknaden (som har tillräckligt med sensorer) sedan flera år samla in data som sedan används för att träna AI-systemet [2]. Man har då också kunna inrikta träningen på speciellt svåra objekt, som t.ex. cyklar på cykelställ på bilar (är det en bil eller en cykel?).

Den kommande mjukvaran kommer också att innehålla funktioner för att låta bilarna – om föraren så önskar – köra mer aggressivt, i vad Elon Musk kallar ”Los Angeles trafikmod” eftersom det krävs en aggressiv körstil för att ta sig fram i trafiken där [5].

Med den nya självkörningsförmågan så möjliggörs också robot-taxi, och Tesla planerar nu för en sådan tjänst, men med en ny affärsmodell. Tanken är nämligen att använda Tesla Model 3-bilar som tidigare leasats till kunder [6]. Kunderna får då ta den största delen av värdeminskningen, och robot-taxitjänstens kunder bryr sig förstås inte om bilarna varit nya eller begagnade. Det innebär också att de som leasat Model 3 inte kommer att ha möjlighet att köpa loss bilarna när leasingperioden är slut.

På frågan om hur mycket Tesla satsar på utvecklingen av självkörning svarar Elon Musk ”det är i princip hela vår kostnadsstruktur”. Han säger också att det är ekonomiskt vansinne att idag köpa en annan bil än en Tesla, för ”om tre år kommer det att vara som att äga en häst” [3].

Här kan ni se en video från eventet (den börjar med en snygg men lååång reklamfilm, själva eventet startar efter 1 timme och 9 min).

Egen kommentar:

Här kändes det verkligen att Tesla har sin bakgrund i elektronikindustrin snarare än i fordonsindustrin – man gör saker som en traditionell biltillverkare nog inte skulle ge sig på.

Filmen innehåller också en bra beskrivning av hur maskininlärning fungerar allmänt och i fordonssammanhang, för oss som inte är insatta i ämnet.

Men min känsla av att se videon är att trots det positiva budskapet så verkar inte Elon Musk riktigt vara i form. Men så är ju Tesla också – återigen – ifrågasatta vad gäller att leverera vad de lovat, nu avseende volymer av Model 3, och också vad gäller själva affären, med lägre intäkter pga sänkta priser och fortsatt höga kostnader. Därför är det extra intressant med den nya affärsmodellen. Men den förutsätter ju att allt finns på plats och robot-taxitjänsten verkligen blir en framgång.

Samtidigt finns det fler moln på Teslas himmel: bland annat en bil i Shanghai som spontant börjat brinna [7]; och en studie som ifrågasätter om Teslas statistik för hur många olyckor de undvikit med sin teknologi verkligen stämmer, då urvalet kanske inte varit representativt [8].

Källor:

[1] Alexandria Sage, Vibhuti Sharma: Tesla says robotaxis coming to U.S. roads next year, slams rivals’ use of Lidar, Reuters 2019-04-22 Länk

[2] Brad Templeton: Tesla Bets Farm On Neural Network Based Autonomy With Impressive Presentation, Forbes 2019-04-22 Länk

[3] Tesla’s self-driving robotaxis will be on US roads by next year, promises Elon Musk, Livemint 2019-04-23 Länk

[4] Matt Burns:
‘Anyone relying on lidar is doomed,’ Elon Musk says, TechCrunch 2019-04-22 Länk

[5] Sean O’Kane: Elon Musk says Tesla will allow aggressive Autopilot mode with ‘slight chance of a fender bender’, The Verge 2019-04-22 Länk

[6] Will Tesla’s Leasing Program Disrupt The Ride-Sharing Market? CleanTechnica 2019-04-21 Länk

[7] Brenda Goh, Yiley Sun: Model S fire video adds to Tesla woes pre-results, Reuters 2019-04-22 Länk

[8] Edward Niedermeyer: MIT Study Showing High ”Functional Vigilance” Among Autopilot Users Comes With Massive Caveats, The Drive 2019-04-10 Länk

Billigare positioneringsmodul

Ficosa har utvecklat en ny, billig positioneringsmodul kallad Escape, skriver Ny Teknik [1]. Modulen kombinerar satellitpositionering med ett 4G-modem, en accelerometer och ett gyroskop och kan också hämta och använda kart- och kameradata.

Resultatet ska ge en billigare och bättre positionering.

Källa

[1] John Edgren: Billiga EU-modulen ska ge säker autonomi för alla, Ny Teknik 2019-04-08 Länk

Velodyne når en milstolpe

Förra veckan blev det känt att teknikföretaget Velodyne sålt totalt 30 000 lidarenheter för förarstödssystem och automatiserad körning [1]. Detta för ett värde av en halv miljard dollar.

För att skala upp produktionen har Velodyne nu licensierat sin lidar-teknik till Veoneer, som i sin tur har ett långsiktigt avtal med en fordonstillverkare.

Egen kommentar

I sin nyligen publicerade rapport förutser The Insight partners en ljus framtid för lidarenheter, med en stadigt växande marknad under de kommande 8 åren. 

Källor

[1] Velodyne. Velodyne Achieves Half a Billion Dollars in Lidar Sensors Shipped. 2019-03-28 Länk

Open Fusion Platform

I ett forskningsprojekt med ett stort antal tyska aktörer och lett av Hella har man tagit fram en öppen plattform för sensorfusion, kallad Open Fusion Platform, eller OFP [1].

För framtida automatiserade bilar så krävs att data från en mängd olika sensorer samverkar, fusioneras, för att skapa en komplett bild av omgivningen med tillräcklig noggrannhet. Men ett problem är att det ännu så länge saknas standardiserade gränssnitt mellan alla dessa komponenter.

Tanken är att tillverkare av sensorer i framtiden ska kunna anpassa sina system till OFP och på det sättet lättare kunna integrera sina produkter i fordonen.

Egen kommentar

Vi började redan för 20 år sedan när jag var på Volvo PV att diskutera ett koncept med standardiserade gränssnitt mellan delsystem – vi kallade det New Product Architecture eller NPA. Det har sedan dess visat sig svårt att realisera, inte så mycket på grund av tekniken utan för att det utmanar befintliga strukturer och affärsmodeller i leverantörskedjorna.

Men nu kanske det kan börja hända något?

Källor

[1] Open Fusion Platform Simplifies the Development of Autonomous Driving Functions, Hella Press Release 2019-03-21 Länk

En ny solid-state lidar

Startupföretaget Lumotive har tagit fram en ny fasttillstånds (solid state) lidar [1]. 

Det mest unika med den är hur den styr laserstrålarna. Till skillnad från traditionella lidarenheter som använder sig av mekanisk skanning, använder sig Lumotives strålstyrteknik av halvledare som är baserade på metamaterialsprinciper. 

Enligt företaget har detta möjliggjort utveckling av en lidar med hög prestanda, låg kostnad och som är mer kompakt än sin föregångare. Det tänkta tillämpningsområdet är framförallt automatiserade fordon. 

Lumotive finansieras av Bill Gates and Intellectual Ventures och har hittills arbetat i tysthet. 

Egen kommentar

Echodyneär ett annat företag som använder metamaterial, i deras fall handlar det dock om radar. 

Här är det också viktigt att inte förväxla Lumotive med Luminar som är ett annat lidarföretag som vi skrivit om flera gånger. 

Källor

[1] Coldeway, D., TechCranch. Gates-backed Lumotive upends lidar conventions using metamaterials. Länk

Valeo satsar på Irland

Franska teknikleverantören Valeo satsar på att utöka sin forsknings- och utvecklingsverksamhet i Tuam på Irland inom förarstödsfunktioner och automatiserade fordon [1]. Den irländska delen av Valeos verksamhet fokuserar på utveckling av kamerabaserade system. 

Satsningen är på ca 44 miljoner euro som kommer att fördelas över 3 år. 

Källor

[1] Irsig Tech News. Valeo to invest €44m in autonomous vehicle RD&I, creating 50 jobs in its R&D centre in Tuam. 2019-03-13 Länk

Waymos lidar tillgänglig för andra

Nu är det officiellt att Waymo kommer börja sälja en av sina lidarsensorer till andra aktörer, under förutsättning att dessa inte bedriver verksamhet som kan tänkas utmana Waymos egen robottaxitjänst [1].

Sensorn i fråga heter Laser Bear Honeycomb och är idag monterad på Waymos självkörande bilars stötfångare. Den har ett synfält på 360 grader horisontellt och 95 grader vertikalt och kan detektera objekt som befinner sig direkt framför sensorn. Den fungerar enligt principen ”multiple returns per pulse” vilket innebär att den kan se upp till fyra olika föremål som befinner sig i synfältet för en stråle. Detta ger en detaljerad bild av miljön.

Honeycomb kan beställas här

Egen kommentar

Här är det viktigt att notera att Honeycomb inte täcker hela synfältet som behövs för självkörning utan används i kombination med andra lidarsensorer.

Att utvidga sina vyer och affärsmodeller är något som Waymos moderföretag Google/Alphabet varit duktiga på, och att de väljer att lansera sin lidar som en enskild produkt är ingen direkt överraskning. Deras förhoppning är att detta ska driva upp produktionsvolymen och sänka tillverkningskostnaden. Frågan är bara hur Honeycomb kan klara sig bland alla andra lidarsensorer som finns på marknaden idag?

Källor

[1] Waymo, 2019-03-06 Länk

På väg mot en perfekt lidar?

Vi har vid flera tillfällen skrivit om lidarföretaget Luminar. För ett par veckor sedan deltog jag på en föreläsning vid Stanford University som hölls av företagets grundare Austin Russell. Vilken passion och inspiration!

Austin grundade Luminar när han var 17, strax efter att han hoppat av sitt första studieår vid Stanford. Innan dess hade han hunnit ta flera patent och skaffa sig gedigen kunskap om lidarteknik, och framförallt hade han insett hur viktig roll som lidarer kommer att spela för fordonsindustrin och utvecklingen av automatiserad körning. 

Luminar har arbetat i hemlighet i 5 år tills det offentliggjorde sin produkt 2017. Sedan dess har företaget ingått ett flertal samarbeten med fordonstillverkare och andra relevanta aktörer. Många har investerat i bolaget, bland annat Volvo Cars. Företaget har nu runt 400 anställda i flera städer i USA. Enligt Austin har de öppnat kontor där man har toppkompetens inom lidarteknik. Hur kan vi se till att vi har toppkompetens i Sverige som attraherar hit företag som Luminar?

Här är några av mina minnesanteckningar:

  • En viktig insikt för Austin var att det behövs en helt ny lidarteknik för att åstadkomma radikalt bättre detektering än med den existerade tekniken. Detta ledde honom till att välja en våglängd (1550-nm) som hittills inte beprövats inom civila tillämpningar. Här drog jag parallellen till det många säger om förarstödsystem och automatiserad körning: man kan inte se automatiserad körning som en vidareutveckling av förarstödsystem, det är helt nya strategier och krav som gäller.
  • En annan viktig insikt för Austin var att det inte gick att ta några off-the-shelf komponenter utan det gällde att utveckla allt från grunden.
  • Luminars teknik är inspirerad av tekniken som används inom militären. Utmaningen låg dock i att kunna paketera komponenterna och göra skanningen på ett energieffektivt sätt. 
  • Att komma fram till vad som fungerar var inte det enklaste. Enligt Austin fick de upptäcka 200 ”så ska man inte göra”-sätt tills de hittade ett sätt som fungerade. Det tog alltså 5 år att få alla bitar på plats.  
  • Utryckt på ett enkelt sätt fokuserar den existerande lidartekniken på att ha många strålar som skannar ett stort område. Luminar använder sig av en enda stråle som snabbt skannar ett fokusområde. Andra egenskaper som kännetecknar Luminars teknik inkluderar detektering på långa avstånd (över 200 meter för mörka objekt med mindre än 10% reflektivitet), energieffektiv, klarar av objektigenkänning med endast 4-5 detekterade punkter, relativt väder okänslig (i monsunregn minskar synfältet till 150 meter för mörka objekt).
  • Austin var inte specifik kring Luminars nästa steg vad det gäller själva teknikutvecklingen. Men om man läser mellan raderna så kommer det handla om urbana miljöer. 

Ja, med stor passion kan man åstadkomma mycket! 

Radarreflektorer med fraktala superspridare

Fraktala superspridare, ”fractal superscatterers” gör det möjligt att elektromagnetiskt förstora ett radarmål och då också göra dess spektrala signatur identifierbart av t.ex. radarer i automatiserade fordon [1].

I praktiken kan alltså t.ex. vägstolpar och vägmarkeringar utrustas med sådana fraktala superspridare och på det sättet ge information till fordonet om t.ex. sina exakta positioner. Detta skulle göra det möjligt att slippa använda LIDAR och bara använda radar.

Egen kommentar:

För några år sedan gjorde vi tillsammans med Sentient+ en förstudie av identifierbara radarreflektorer [2]. Då föll det på teknologin som inte var tillräckligt utvecklad. Nu kan det alltså öppnas nya möjligheter.

Källor:

[1] Fractal superscatterers to enable driverless cars with greater safety and capabilities, SafeCarNews 2019-02-05 Länk

[2] Alexey Voronov, Johan Hultén, Johan Wedlin, Cristofer Englund: Radar reflecting pavement markers for vehicle automation, Trafikverket 2016 Länk