Forsker: Staten skal bære ansvaret, når kunstig intelligens gør skade

INTELLIGENS: Mens Google, Amazon og resten af techindustrien konkurrerer om at være først med de smarteste kunstige intelligenser, river jurister verden over sig i håret. For hvordan fordeler vi ansvaret, når computere gør skade på os?

Foto: Kim Kyung-Hoon/Reuters/Ritzau Scanpix
Chris Lehmann

Når et menneske kører galt i en bil, er det i dag naturligt at spørge ind til førerens ansvar. Personen, der direkte styrer bilen, kan sagtens være den eneste ansvarlige for uheldet - men hvem er ansvarlig hvis en selvkørende bil kører galt?

Spørgsmålet bliver mere og mere aktuelt, efterhånden som kunstige intelligenser får mere og mere ansvar for at hjælpe os mennesker i dagligdagen.

Ikke kun i kraft af selvkørende biler, men også på finansmarkeder, på fabrikker og i lægeklinikker, hvor computere med avancerede algoritmer hjælper med at analysere store datasæt og foreslå beslutninger.

For at blive i metaforen med ansvarsfordelingen bag den havarerede selvkørende bil, så er det indlysende, at føreren af bilen ikke kan holdes ansvarlig, da hun ikke styrer bilen. Er det så producenten, der har ansvaret?

Er det brugeren eller producenten, der er ansvarlig? Ingen af dem har direkte kontrol over robotten i ulykkesøjeblikket.

Léonard Van Rompaey
Ph.d., Jura, Københavns Universitet

Et vandfald af juridiske hovedpiner
Det ville unægtelig få selv de største bilproducenter til at afholde sig fra at lancere selvkørende biler, hvis de uden videre ville blive holdt ansvarlige for samtlige uheld, der skete på vejene i en fremtid, hvor alle biler er selvkørende.

Løsningen har den franske jurist Léonard Van Rompaeys fundet frem til i sit ph.d.-projekt, som han forsvarede før sommerferien:

"Kunstig intelligens kommer ind alle vegne, og det er en teknologi, der giver en masse problemer i forhold til jura og lovgivning. Lagt sammen betyder det, at der dukker en lavine af små juridiske problemer op allevegne i al slags jura," siger han.

"Lovgiverne har ikke ressourcerne til effektivt at håndtere hvert enkelt lille problem, der opstår. Derfor skal vi have en generel løsning, der gør industrien i stand til at regulere sig selv," forklarer han.

Derfor har han brugt de seneste år på Københavns Universitet, hvor han har udviklet en generel model for fordeling af det juridiske ansvar, når kunstig intelligens laver ulykker. Den ser således ud:

Hvis både brugeren af robotten og virksomheden bag den kunstige intelligens kan bevise, at de har handlet i god tro og levet op til officielle sikkerheds-standarder, kan retten anse virksomheden for at have handlet i god tro - og dermed ikke bære hele ansvaret for en eventuel ulykke.

Hvis hverken producenten eller brugeren af systemet er ansvarlige, skal staten gå ind og bære ansvaret som en slags forsikringsselskab, foreslår han.

Modellen kan bruges på alle former for kunstig intelligens, lige fra sagsbehandlingssystemer til selvkørende biler og robotter.

Brugerne er ikke skyldige
Det juridiske problem med fordelingen af ansvaret består i, at mennesker ikke direkte styrer en kunstig intelligens. Den handler selv - frit - inden for de rammer, dens programmører har valgt.

Maskinen kan kan dog heller ikke holdes til ansvar for sine handlinger, mener Léonard Van Rompaey. Den er stadig en maskine, da den ikke er selvbevidst:

"En robot på en mission har et handlerum, den tager beslutningen indenfor. Men når der skal tildeles et ansvar for en ulykke skal man overveje dem der står bag robotten. Er det brugeren eller producenten, der er ansvarlig? Ingen af dem har direkte kontrol over robotten i ulykkesøjeblikket," siger han.

Han peger på, at det nuværende juridiske system vil placere skylden på brugeren af robotten, hvis der sker ulykke.

Statens ansvar
Hans ide er, at vi skal begynde med at få ansvaret til at falde tilbage på producenten, da de er den eneste part, der har indflydelse på robottens handlinger, når den arbejder selvstændigt. Brugeren har blot ansvaret for at igangsætte robotten på en forsvarlig og sikker måde.

Dernæst skal der opsættes juridiske standarder for, hvordan producenter kan vise, at de har gjort deres bedste for at producere en sikker kunstig intelligens. Kan producenten leve op til standarderne, skal mekanismen med staten som forsikring sættes i kraft. I sådan et tilfælde vil et uheld betragtes som et uheld, der er umuligt at forudse.

"Mit argument er, at vi skal skubbe ansvaret over på producenten, da de har formet robottens adfærd," siger Léonard Van Rompaey.

"Hvis der er en fejl i robotten, som producenten viser, umuligt kunne have været opdaget, skal producenten dog kun bære en lille del af ansvaret. Kun hvis virksomheden kan bevise, at den har forsøgt i den bedste tro at lave et sikkert produkt, kan staten gå ind og samle resten af ansvaret op som en slags forsikringsselskab," forklarer han.

Standarder skal fastsættes af industrien
Leonard Rompaeys forslag er ikke at genopfinde den dybe juridiske tallerken. I stedet skal dommere og jurister opdateres til at kunne vurdere, om AI-producerende techvirksomheder har levet op til deres ansvar. Om de har handlet i god tro.

"'God tro' er et veletableret juridisk begreb, som kan anvendes her. Domstole er vant til at vurdere, om mennesker har levet op til deres ansvar. Jeg foreslår, at de får mandat til at vurdere om producenter af kunstigt intelligente systemer har levet op til deres ansvar."

Samtidig skal industrien opfordres til at selvregulere og skabe standarder for sikkerhed i kunstigt intelligente systemer. De skal udvikle metoder til at bevise, at de har handlet i god tro, mener Léonard Van Rompaey:

"I dag laver industrien selv standarder for blandt andet miljøbeskyttelse. Hvis industrien bliver bedt om bruge den model til at skabe tillid til kunstig intelligens, bliver det forhåbentlig virksomhederne, der kommer til at lave det hårde arbejde," siger han.

"I sidste ende skal troværdighed, sikkerhed og tillid skal blive til konkurrenceparametre mellem virksomheder, der producerer kunstig intelligens," siger han.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00