Brittiska teknikföretaget Aidrivers, som fokuserar självkörande fordon för industriella tillämpningar som i hamnar, kommer att integrera en Lidar från kinesiska leverantören RoboSense [1] för positionering.
RoboSense Lidar sägs vara robust och kunna klara även svåra väderförhållanden.
Källa:
[1] RoboSense partners Aidrivers over autonomous solutions for industrial transportation, Economic Times – India Times 23 augusti 2019, Länk
Utvecklingen av sensorer går framåt men frågan är bara om det går tillräckligt snabbt? Många hoppas på lidarsensorer och goda nyheter är att lidarföretaget Luminar lanserat en ny plattform med förhoppning att kunna ta den till produktionsfordon 2022 – för mindre än 1 000 dollar [1]. För att kunna nå dit har företaget fått in mer pengar från investerare. Men Luminar är inte ensamma på marknaden. Dess konkurrent Otter har under sommaren fått en ny kund i form av Postmates som kommer att utrusta sina leveransrobotar med Otters lidar [2].
Ett forskarteam vid Stanford har lyckats vidareutveckla sina tidigare framtagna kameraprototyper som numera kan detektera rörliga objekt utan att ha direkt sikt av dem [3].
För att optiska sensorer som kameror ska fungera bra i produktionsfordon behöver de rengöras, åtminstone då och då. Och Ford har lösningen [4].
Jaguar Land Rover hoppas på att AI ska kunna hjälpa dem att reducera förarstress – genom att upptäcka och förstå förarens humör vill de kunna anpassa bilens miljö som exempelvis temperaturen för att minska stress [5].
Källor
[1] Lidar startup Luminar gets $100M in funding, sub-$1,000 Iris platform set for production cars by 2022 Länk
[2] Postmates’ self-driving delivery rover will see with Ouster’s lidar. Länk
[3] Stanford camera can watch moving objects around corners. Länk
[4] Device for cleaning an optical sensor of an optical detection system for a motor vehicle. Länk
[5] AI mood detection tech could be used to reduce driver stress. Länk
Strax innan midsommar offentliggjorde Baidu sitt Apollo Lite, ett visionsbaserat ramverk som nyttjar flera kameror [1]. Enligt företaget uppnår man med Apollo Lite nivå 4 autonom körning enligt SAE-skalan.
Apollo Lite använder sig av 10 kameror som ger 360 graders siktvy runt bilen och kan se objekt på ca 200 meters avstånd. Systemet ska ha testats i verklig trafik och uppnått bättre prestanda än motsvarande system som använder sig av lidarsensorer.
Källor
[1] Wiggers, K., Venturebeat. Baidu claims its Apollo Lite vision-based vehicle framework achieves level 4 autonomy. 2019-06-19 Länk
Brittiska försäkringsbolaget Thatcham har publicerat en vägledning för hur fordonsreparationer med Advanced Driver Assistance Systems (ADAS)-system bör hanteras för att säkerställa att dessa säkerhetsfunktioner fortsätter att fungera efter reparationen [1]. Exempelvis krävs en ADAS-kalibrering efter byte av vindrutan på många nya fordon. Här är det viktigt att kalibreringen genomförs inom fordonstillverkarens toleransnivåer.
För att reparation av fordon med ADAS ska kunna fungera smärtfritt efterfrågar Thatcham bland annat följande:
Utrustningsleverantörer måste se till att det finns kontrollbara bevis på en lyckad kalibrering.
Reparatörer måste investera i utbildning för att säkerställa att behöriga personer återställer ADAS på ett säkert sätt.
Fordonstillverkare måste tillhandahålla ADAS-anpassningsdata och konsekventa råd kring vilka reparationsscenarier som kommer att leda till en lyckad ADAS-kalibrering.
En mer omfattande sammanfattning av Thatchams guidelines finns att tillgå här.
Källor
[1] Thatcham. Thatcham Research Brings Clarity to ADAS Repair. 2019-05-09 Länk
Startupföretaget Aurora har nu köpt upp sensorföretaget Blackmore, som hittills finansierats av bland annat BMW Venture och Toyota AI Ventures [1].
Blackmore har utvecklat en lidar baserad på frekvensmodulerad kontinuerlig vågteknik (FMCW). Den påstås vara exceptionell vad gäller långdistans-detektering och hastighetsmätning.
Nu har det inträffat ännu en dödsolycka med en Tesla-bil som körde med Autopilot.
Utredare vid NTSB (National Transport Safety Board) har funnit att båda männen som omkom i Tesla-krascherna använde förarassistentsystemet Autopilot i samband med kollisionerna [1], [2].
Autopilot är ett Level 2 semi-autonomt system, som enligt Society of Automotive Engineers beskrivs som ett system som kombinerar adaptiv farthållare, körfälthållare, självparkering och nu senast möjligheten att automatiskt byta körfält.
Efter den första kraschen under 2016 fick Tesla en chans att adressera så kallade ”edge cases” (ovanliga scenarion) för att kunna redesigna Autopilot. Tesla sade då att kameran misslyckats med att känna igen den vita lastbilen mot en ljus himmel; US National Highway Traffic Safety Administration (NHTSA) fann i huvudsak att föraren inte var uppmärksam på vägen och gjorde bedömningen att Tesla var oskyldiga.
Det som avslöjas nu är att trots att båda krascherna hade helt olika versioner av förarassisten teknologin (trots att båda kallas Autopilot) ledde de båda versionerna till dödligt utfall. Autopiloten i den första kraschen baserades på teknologi som utvecklats av den israeliska start-upen Mobileye (som sedan förvärvades av Intel). Olyckan var delvis anledningen till att de två företagen avslutade sitt samarbete 2016.
Den andra kraschen nu var med en Model 3 som var utrustad med en andra generationens Autopilot som Tesla utvecklat in-house. NTSB har sagt att föraren körde med Autopilot ca 10 sekunder innan den kraschade in i ett släpfordon. Föraren hade inte händerna på ratten i nästan åtta sekunder före kraschen och nationella utredare undersöker fortfarande fallet.
Säkerhetsexperter har noterat att system med adaptiva farthållare (som Autopilot) förlitar sig mest på radar för att undvika kollisioner. Radar är bra för att upptäcka rörliga objekt men inte stationära. Systemet har också svårt att upptäcka föremål såsom ett fordon som korsar vägen och inte rör sig i bilens färdriktning.
Egen kommentar
Tesla har ännu inte kommenterat kring hur de planerar att åtgärda detta problem. Detta kommer inte som en extra pålaga eftersom det inte bara är en teknisk aspekt som behöver åtgärdas utan också moraliska aspekter som alla som utvecklar denna teknologi behöver adressera [3]. Det finns nämligen inga tydliga parametrar för när ett självförande fordon anses vara tillräckligt säkert för att sättas på vägen. Det man inte heller vet är vilka metoder som ska användas för att bevisa att en självkörande bil är säker nog. Ska man sedan sikta på att ha fordon som kör 10% bättre eller 100% bättre än mänskliga förare?
En studie gjord 2017 av RAND Corporation fann att ju tidigare automatiserade fordon används, desto fler liv kommer man i slutändan att rädda, även om bilarna är bara lite säkrare än bilar som körs av människor. Forskare fann att på lång sikt kan introduktion av bilar som bara är 10% säkrare än en genomsnittliga förare rädda fler liv än att vänta tills fordonen är 75% eller 90% bättre.
Viktigt att notera är att Tesla, oberoende av den senaste händelsen, kommer att strypa Autopilot och Summonfunktionerna i Europa. Detta till följd av det reviderade regelkravet UN/ECE R79. I sin senaste produktuppdatering skriver företaget: ”På grund av nya lokalregleringar har man justerat gränsen för hur mycket ratten får vridas då ”Autosteer” är aktiverat. Det här kan reducera ”Autosteers” förmåga att genomföra skarpa svängar. Därutöver så måste körriktningsvisaren hållas i första spärren (delvis ned eller upp) och filbytet måste inledas inom fem sekunder efter att blinkers satts igång.”
Källor
[1] Hawkins, A.J., Tesla didn’t fix an Autopilot problem for three
years, and now another person is dead. The Verge 2019-05-17 Länk
[2] Tesla’s Autopilot system was engaged during fatal Florida crash in
March – NTSB. Reuters 2019-05-16 Länk
[3] Stewart, E., Self-driving cars have to be safer than regular cars. The question is how much. Vox 2019-05-17 Länk
Nissan har meddelat att de för närvarande bara kommer att använda självkörningsteknologi som bygger på radarsensorer och kameror, och undviker alltså lidar eller ljusbaserade sensorer helt ,på grund av dessas höga kostnader och begränsade möjligheter.
Nissans nya teknologi, som kommer att släppas i Japan senare i år, kommer att använda radar- och sonarsensorer tillsammans med kameror för att kompilera en tredimensionell kartdata för att bilarna ska kunna ”se” sin omgivning. Detta tillkännagavs en månad efter att Elon Musk offentligt sagt att lidarteknologin är för dyr och onödig.
Förra året investerade Nikon 25 miljoner dollar i lidartillverkaren Velodyne. Nu ska Nikon hjälpa Velodyne att bli ännu starkare global massleverantör av lidarsensorer genom att börja tillverka deras lidarsensorer. Massproduktionen väntas starta under hösten.
Velodyne kommer att demonstrera två nya produkter, Velodyne Alpha Puck och Velodyne Velarray, under SmartDrivingCar Summit som hålls i veckan i Princeton, USA [2].
I måndags höll Tesla ett event kallat Autonomy Day där de berättade om flera uppmärksammade nyheter. Till skillnad från tidigare event var detta mycket mer fokuserat på teknologin som man öppet och relativt detaljerat gick igenom, och flera skribenter verkar ha blivit imponerade [1, 2].
Till att börja med har Tesla utvecklat ett eget chip, som ska vara specialanpassat för just Teslas självkörande fordon, till skillnad från t.ex. Nvidias som är mer generellt och som används av många konkurrenter. Teslas chip, som ska tillverkas av Samsung, ska t.ex. vara betydligt snabbare på bildbehandling [1]. Detta nya chip sitter i processorerna i alla Tesla-bilar som tillverkas nu, vilket gör att de hårdvarumässigt redan är klara för att bli helt självkörande, enligt Elon Musk. Nästa år ska man släppa en ny mjukvara för detta vilket gör att det då direkt kan finnas en miljon helt självkörande bilar på marknaden [3]. Och om 2 år kommer nästa generation av chippet.
Vad gäller sensorer så fortsätter Tesla att satsa på radar, kameror, GPS, kartor och kommunikation – men inte lidar. I själva verket anser Elon Musk att de företag som satsar på lidar är dömda till undergång, ”doomed” [4]. Lidarer är dyra och onödiga, säger han. Dessutom drar de mycket energi. För att klara svårare siktförhållanden – där lidar annars har sin styrka – satsar Tesla istället på utveckling av kameror och maskininlärning.
Vad gäller just maskininlärning så har Tesla en fördel i att de låtit alla sina bilar på marknaden (som har tillräckligt med sensorer) sedan flera år samla in data som sedan används för att träna AI-systemet [2]. Man har då också kunna inrikta träningen på speciellt svåra objekt, som t.ex. cyklar på cykelställ på bilar (är det en bil eller en cykel?).
Den kommande mjukvaran kommer också att innehålla funktioner för att låta bilarna – om föraren så önskar – köra mer aggressivt, i vad Elon Musk kallar ”Los Angeles trafikmod” eftersom det krävs en aggressiv körstil för att ta sig fram i trafiken där [5].
Med den nya självkörningsförmågan så möjliggörs också robot-taxi, och Tesla planerar nu för en sådan tjänst, men med en ny affärsmodell. Tanken är nämligen att använda Tesla Model 3-bilar som tidigare leasats till kunder [6]. Kunderna får då ta den största delen av värdeminskningen, och robot-taxitjänstens kunder bryr sig förstås inte om bilarna varit nya eller begagnade. Det innebär också att de som leasat Model 3 inte kommer att ha möjlighet att köpa loss bilarna när leasingperioden är slut.
På frågan om hur mycket Tesla satsar på utvecklingen av självkörning svarar Elon Musk ”det är i princip hela vår kostnadsstruktur”. Han säger också att det är ekonomiskt vansinne att idag köpa en annan bil än en Tesla, för ”om tre år kommer det att vara som att äga en häst” [3].
Här kan ni se en video från eventet (den börjar med en snygg men lååång reklamfilm, själva eventet startar efter 1 timme och 9 min).
Egen kommentar:
Här kändes det verkligen att Tesla har sin bakgrund i elektronikindustrin snarare än i fordonsindustrin – man gör saker som en traditionell biltillverkare nog inte skulle ge sig på.
Filmen innehåller också en bra beskrivning av hur maskininlärning fungerar allmänt och i fordonssammanhang, för oss som inte är insatta i ämnet.
Men min känsla av att se videon är att trots det positiva budskapet så verkar inte Elon Musk riktigt vara i form. Men så är ju Tesla också – återigen – ifrågasatta vad gäller att leverera vad de lovat, nu avseende volymer av Model 3, och också vad gäller själva affären, med lägre intäkter pga sänkta priser och fortsatt höga kostnader. Därför är det extra intressant med den nya affärsmodellen. Men den förutsätter ju att allt finns på plats och robot-taxitjänsten verkligen blir en framgång.
Samtidigt finns det fler moln på Teslas himmel: bland annat en bil i Shanghai som spontant börjat brinna [7]; och en studie som ifrågasätter om Teslas statistik för hur många olyckor de undvikit med sin teknologi verkligen stämmer, då urvalet kanske inte varit representativt [8].
Källor:
[1] Alexandria Sage, Vibhuti Sharma: Tesla says robotaxis coming to U.S. roads next year, slams rivals’ use of Lidar, Reuters 2019-04-22 Länk
[2] Brad Templeton: Tesla Bets Farm On Neural Network Based Autonomy With Impressive Presentation, Forbes 2019-04-22 Länk
[3] Tesla’s self-driving robotaxis will be on US roads by next year, promises Elon Musk, Livemint 2019-04-23 Länk
[4] Matt Burns: ‘Anyone relying on lidar is doomed,’ Elon Musk says, TechCrunch 2019-04-22 Länk
[5] Sean O’Kane: Elon Musk says Tesla will allow aggressive Autopilot mode with ‘slight chance of a fender bender’, The Verge 2019-04-22 Länk
[6] Will Tesla’s Leasing Program Disrupt The Ride-Sharing Market? CleanTechnica 2019-04-21 Länk
[7] Brenda Goh, Yiley Sun: Model S fire video adds to Tesla woes pre-results, Reuters 2019-04-22 Länk
[8] Edward Niedermeyer: MIT Study Showing High ”Functional Vigilance” Among Autopilot Users Comes With Massive Caveats, The Drive 2019-04-10 Länk
Ficosa har utvecklat en ny, billig positioneringsmodul kallad Escape, skriver Ny Teknik [1]. Modulen kombinerar satellitpositionering med ett 4G-modem, en accelerometer och ett gyroskop och kan också hämta och använda kart- och kameradata.
Resultatet ska ge en billigare och bättre positionering.
Källa
[1] John Edgren: Billiga EU-modulen ska ge säker autonomi för alla, Ny Teknik 2019-04-08 Länk