Kategoriarkiv: Etik

Hur borde automatiserade fordon köra?

En grupp forskare vid tyska Institute for Human Development och University of Göttingen har utforskat hur automatiserade fordon borde agera i säkerhetskritiska situationer [1].

I en online frågeformulär genererad via Amazon Mechanical Turk fick 872 deltagare ta ställning till bilen som de färdades i borde stanna i sitt körfält och krocka med en fotgängare eller väja undan och krocka med en annan trafikant. De fick erfara olika scenarier med olika risknivåer.

Resultaten visar att majoriteten av deltagarna föredrog att stanna i sitt körfält. Dessutom var deltagarna mindre benägna att ändra sin ställning efteråt om de hade valt alternativet att stanna i sitt körfält.

En slutsats från studien är att det är moraliskt mer rätt att bilen stannar i sitt körfält om en olycka är oundviklig.

Källor

[1] Meder et al., 2018. Risk Analysis. How Should Autonomous Cars Drive? A Preference for Defaults in Moral Judgments Under Risk and Uncertainty. Länk

 

Mer jordnära etiska problem

I en notis om vad som hänt under sommaren skrev vi om de etiska riktlinjerna som den tyska regeringen gett ut. Bland annat skriver man:

”Hur mycket beroende av tekniskt komplexa system – som i framtiden kommer att baseras på artificiell intelligens, eventuellt med maskininlärningsförmåga – är vi villiga att acceptera, för att i gengäld få mer säkerhet, rörlighet och bekvämlighet? Vilka försiktighetsåtgärder måste vidtas för att säkerställa kontrollerbarhet, öppenhet och datautonomi? Vilka tekniska utvecklingsriktlinjer krävs för att inte sudda ut konturerna av ett mänskligt samhälle som ställer individer, deras frihet till utveckling, deras fysiska och intellektuella integritet och deras rätt till social respekt i hjärtat av sin rättsordning?”

Det finns mycket skrivet om etik i samband med självkörande fordon, men oftast hamnar man i ”the trolley problem” om fordonen måste programmeras att välja vilka de ska köra på. Men OS News kommenterar de tyska riktlinjerna med några nya, mer jordnära perspektiv [1]:

”Utöver den etik som är relaterad till liv och död finns det dock också enklare, mer banala etiska överväganden. Till exempel om en biltillverkare för att öka vinsten gör ett avtal med McDonalds och anpassar sitt självkörande bilprogram bara lite grann, så att fordonet kör kunderna förbi McDonalds lite oftare, även om det ökar den totala restiden. Vad händer om en biltillverkare gör liknande avtal med stora affärskedjor så att mindre kedjor eller fristående butiker inte ens dyker upp när du säger ”ta mig till närmaste plats som säljer X”? Är det något vi borde tillåta?

Ska vi över huvud taget tillåta programvara för självkörande bilar att vara stängd? Bilar är ”lagliga mordvapen”, och litar vi verkligen på bilfabrikanterna att inte ”gena” när de utvecklar självkörande bilars programvara, för att möta deadlines, på grund av dålig ledning eller underbetalade utvecklare? Ska inte all denna utveckling och all denna kod vara öppen för världen att se?”

Källor

[1] Thom Holwerda: Germany publishes ethical guidelines for self-driving cars, OS News 2017-08-26 Länk

Moraliskt dilemma

En grupp forskare från tre olika universitet har publicerat en ny studie som heter The Social Dilemma of Autonomous Vehicles och som diskuterar etik och moral kring automatiserad körning [1].

Studien är baserad på en onlineundersökning där 2000 amerikaner blev tillfrågade hur de skulle vilja att självkörande fordon beter sig när de ställs inför moraliska beslut som kan leda till döden. Deltagarna fick ett antal trafiksituationer presenterade för sig där de fick välja en utgång som de tyckte var lämpligast. De fick exempelvis välja mellan att fortsätta köra rakt fram och döda ett visst antal fotgängare, eller svänga till intilliggande körfält och döda en större grupp djur eller människor. Detta är alltså att klassiskt etikproblem (känt som ”the trolley problem”) där deltagaren tvingas att välja mellan att rädda ett eller flera liv.

Resultaten tyder på att deltagarna hade velat att självförande fordon försöker minimera antalet dödade i trafiken även om det utsätter fordonens egna passagerare för fara. De hade till och med kunnat acceptera att självkörande fordon förstör sig själva för att undvika att skada fotgängare eller andra förare. Det blev dock ett motsägelsefullt svar när de blev tillfrågade vilken typ av fordon som de hade velat köpa : de hade velat köpa fordon som sätter deras egna och passagerarnas säkerhet i första plan.

Här kan ni kolla hur ni hade fattat dessa svåra beslut!

Källor

[1] Warren, T., The Verge. How do you teach an autonomous car when to hurt its passengers? 2016-06-23 Länk

Etiken alltmer i fokus

Frågeställningar runt etik med självkörande fordon har återigen aktualiserats, bland annat i två olika artiklar nyligen som båda relaterar till hur sådana fordon ska programmeras att hantera svåra situationer, sådana där idag mänskliga förare tvingas göra snabba beslut. Ibland blir besluten felaktiga och då kan föraren dömas eller förlåtas. Men när man programmerar för sådana situationer i förväg är man inte i en stress-situation och skulle alltså kunna dömas hårdare.

Den första artikeln tar upp en studie som Toulouse School of Economics har gjort  av hur människor ställer sig till en given etisk situation [1]. En oförutsedd kedja av händelser leder till att bilen kör mot 10 personer som går över vägen. Bilen kan inte stanna i tid men den kan undvika att köra på och döda dem genom att köra in i en vägg vilket sannolikt dödar föraren och passagerarna. Vad ska bilen göra? Räkna att det är bättre att köra in i väggen och ”bara” döda en eller två i stället för tio? Men vill då någon köpa en sådan bil som är villig att offra sin förare? Resultatet av studien är att även om man i princip tycker att principen att minimera antalet döda är rätt, så vill man inte att ha sådana bilar själv – däremot får gärna andra ha dem.

Den andra artikeln berättar om den mycket välrenommerade professorn Chris Gerdes vid Stanford och hans växande funderingar kring sådana här etiska frågor. ”Folk säger ofta att tekniken är löst, men jag tror inte riktigt det”, säger han.  ”Med all ny teknologi finns det en topp i hype-kurvan och därefter kommer en dal av desillusion. Vi är just nu ungefär på toppen. Fördelarna med autonoma fordon är reella men vi har en dal framför oss innan vi ser alla fördelarna med den samhällsförändring som följer.”

Egen kommentar

Vi har tidigare tagit upp etikfrågorna i nyhetsbrevet vid ett par tillfällen (här och här). Det som är intressant nu är att de kommer också från personer som är involverade i själva utvecklingen.

Källor

[1] Why Self-Driving Cars Must Be Programmed to Kill, Technology Review 2015-10-22 Länk

[2] Keith Naughton: In Person: Driverless-car enthusiast raises a caution flag, The Seattle Times 2015-10-25 Länk

Autonoma fordons etik

Människor använder inte bara regler som grund för sitt agerande utan också etik och moral. När lagarna inte räcker för att guida oss så får vi lita till vår moraliska kompass. Den kompassen ger inte alltid samma svar som regelverket. Det gör att vi ibland kan välja att bryta mot regler för ett högre syfte. Vi kanske t.ex. kör för fort i en nödsituation.

Med robotar som t.ex. autonoma fordon som bygger på ett programmerat regelverk så uppstår intrikata problem, inte bara med ansvar och lagstiftning utan även med mer subtil samverkan med människor. Ska bilen alltid följa regelverket?

Patrick Lin resonerar runt dessa frågor i The Atlantic [1].

Egen kommentar

För fullt autonoma eller till och med förarlösa fordon så behöver man ställa även denna typ av filosofiska frågor. Men för de första stegen där det fortfarande finns en förare som kan ta över så blir det lite enklare. Framförallt så skapar man sig tid att diskutera dessa frågor.

Källor

[1] Lin, P., The Atlantic. The Ethics of Autonomous Cars. 2013-10-08. Länk