Debat

Henrik Schärfe: Skal selvkørende biler have en indbygget etik?

KLUMME: Selvkørende biler skal bestemt ikke have indbygget etik. Tværtimod skal de lære at undgå ulykker, skriver klummeskribent Henrik Schärfe, administrerende direktør i Fonden Autonomous. 

Foto: /ritzau/Miriam Dalsgaard
Kirsten Ida Enemark
GDPRDeleted
Vis mere
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Af Henrik Schärfe
Administrerende direktør i Fonden Autonomous

Nej, det skal de ikke. Og her følger en klar argumentation for, hvorfor, men først en note om autonomi.

Autonomi kan forstås på to måder: en teknisk og en filosofisk.

Det filosofiske perspektiv er, at et autonomt system er lukket om sig selv, det vil sige helt indesluttet.

Fakta
Deltag i debatten!
Skriv til [email protected]

I sin konsekvens betyder det, at alle input, beregninger og beslutninger er noget, der foregår ombord.

Sådan en enhed er 'selvforsynende', selvtilstrækkelig og lukket. Den træffer de beslutninger, den selv anser for bedst, og den er selv ansvarlig. 

Det interessante perspektiv ved nye digitale muligheder er, at det faktisk er muligt at programmere lovens bestemmelser direkte ind i fremtidens køretøjer og dermed undgå rigtig mange farlige situationer.

Henrik Scharfe
Administrerende direktør i Fonden Autonomous

Det tekniske perspektiv er, at autonomi er den type af automatisering, der styrer andre automatiske processer. Teknologisk autonomi består derfor i at integrere mange forskellige typer data i beslutningsprocesser, og det foregår som hovedregel i netværk. 

Den selvtilstrækkelige robot — og dermed også robotbilen — anses af mange filosoffer for at være en illusion, der fungerer fint i science fiction, som et tankeeksperiment, men i praksis er det en umulighed, der heller ikke er ønskelig. 

Når vi taler om etik i forhold til selvkørende biler, taler vi om teknisk autonomi. Og den er præcist ikke lukket og selvtilstrækkelig, men fungerer i kraft af integrerede data fra forskellige kilder.

Derfor bliver spørgsmålet: Hvilke typer af data skal være tilgængelige for bilen og dens system? Og hvilke digitale skygger vil vi acceptere? 

Trafiksikkerhed i dag handler om at undgå farlige situationer. Færdselslov, politi, vejdirektorat og trafikstyrelse har alle til opgave at sikre, at farlige situationer ikke opstår.

Derfor er den indlysende konsekvens, at selvkørende biler skal programmeres i overensstemmelse med loven, og hvis det ikke er sikkert at forsætte, skal bilens programmering tvinge den til standsning.

Det interessante perspektiv ved nye digitale muligheder er, at det faktisk er muligt at programmere lovens bestemmelser direkte ind i fremtidens køretøjer og dermed undgå rigtig mange farlige situationer.

Loven er nemlig god i langt de fleste tilfælde. Men de fulde digitale effekter opnår vi kun der, hvor myndighederne tager den digitale virkelighed alvorligt og tager medansvar for de data, der ligger til grund for bilens beregninger.

De løsninger, vi alle venter på, er langt større end en producents forretningsmodel. Det er samfundsudfordringer, og de skal løses på samfundsniveau.

Men hvad så, hvis bilen alligevel kommer ud for en no-win-situation, hvor alle udfald er ulykkelige? Hvad skal den så vælge?

Svaret er, at den skal standse og gerne i god tid.

Hvis bilen skulle kunne træffe et moralsk eller etisk valg, er det en forudsætning, at den også har et passende sprog for andres ulykke.

Det vil kræve, at en programmør for eksempel prioriterer mellem små og store mennesker eller lignende. Vel at mærke på måder, som loven ikke kan. Det siger jeg nej tak til. 

Bilen skal med andre ord have indsigt i sin egen (mulige) ulykke, men indsigt i andres ulykke er forbeholdt mennesker.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Henrik Schärfe

Adm. direktør, Fonden Autonomous
ph.d. i Human Centered Informatics (Aalborg Uni. 2004), cand. mag. i informationsvidenskab (Aalborg Uni.)

0:000:00