Krönika: Ska bilen kunna offra sin ägare?

Hur ska en självkörande bil reagera om den ställs inför en situation där olyckan inte går att undvika?

Publicerad

Bild: iStock

När självkörande bilar börjar komma ut i trafiken behöver de en moral. Finns det olika möjliga handlingar måste det också finnas en strategi för att välja mellan dem. Ska bilen till exempel kunna välja att offra sin förares liv för att undvika att köra på ett lekande barn som råkar springa ut i gatan?

På F&F-evenemanget Robotdagen, där jag själv deltog i en panel i höstas, diskuterades den här och andra etiska frågor. En av programpunkterna var en rolig debatt med bland andra Michael Laakasuo, kognitionsvetare vid Helsingfors universitet.

Michael Laakasuo är specialist just på robotar och moralfrågor, och för honom var det självklart att bilar ska ha en moral som alla känner till. Moralen ska diskuteras och stötas och blötas, och sen stadfästas ungefär som en FN-konvention. Han vill se moralen som en samling regler med en självständig existens, och liknar den vid matematiken, som inte bara finns i våra huvuden – utan kan beskrivas som något objektivt.

På samma sätt som matematikens samband skulle gälla även om det inte fanns några människor, kan man då tänka sig att en moral skulle kunna existera utan oss. Det är en tilltalande tanke som ger etiska ståndpunkter en hög och oberoende status.

Tyvärr tror jag att det kan ta väldigt lång tid att komma överens om en gemensam grundval för moraliska ställningstaganden, och de första decenniernas självkörande bilar kommer säkerligen att ha en moral som är någorlunda lätt att beräkna konsekvenserna av med en dator, snarare än en som uppfyller samhällets högt ställda krav.

Men låt oss säga att vi ändå lyckas komma fram till en regeluppsättning som vi tycker att bilarna ska uppfylla. Blir det automatiskt därmed en bra och effektiv trafiksituation? Nej, antagligen inte.

För att minska komplexiteten i datorberäkningarna i självkörande fordon håller man redan i dag på att anpassa exempelvis motorvägar i Nederländerna för självkörande fordon. Liknande anpassningar kan vi räkna med även här.

Samtidigt görs det en hel del experiment, bland annat i Nederländerna, med att avreglera vissa trafikmiljöer, i till exempel täta stadskärnor. Man har funnit att de olika trafikanterna tar bättre hänsyn till varandra om det inte i varje situation är så tydligt vem som ska köra – och var. När cyklister, gångtrafikanter och bilister anpassar sig efter varandra i sådana miljöer blir det färre olyckor, jämfört med om alla hävdar sin rätt baserat på skyltningen.

Det här leder också till frågan om alla bilar/bilister ska ha samma moral. Är det bra om alla bilar är lika försiktiga i en fyrvägskorsning, eller kan det leda till att all trafik stannar upp när två självkörande bilar väntar på varandra? Jag tror att trafiken blir mer effektiv om det finns en blandning av försiktigt och lite djärvare körbeteende.

För den öppna moralen blir det ett problem förstås. Har man en bil som man kan visa är programmerad att vara oförsiktigare än en annan, blir det svårt att inte se den som vållande till olyckor. I det sammanhanget är det lätt att förstå varför Volvo och andra tillverkare av självkörande bilar har gått ut och sagt att de tar på sig ansvaret för de olyckor bilarna är inblandade i.

Men tyvärr räcker det inte med att ansvarsfrågan reds ut – skadorna blir inte mindre för att man vet vem, eller vad, som orsakade dem. Det bästa med den här teknikutvecklingen, som jag ser det, är att det blir fler som funderar på vad moral och etik är, från ett nytt och intressant perspektiv.

Publicerad

Upptäck F&F:s arkiv!

Se alla utgåvor