Debat

Institut for Menneskerettigheder: Det offentliges brug af kunstig intelligens skal under kontrol

Når kunstig intelligens indgår i sagsbehandlingen, kan det have store konsekvenser for borgernes retssikkerhed og rettigheder. Derfor skal der stilles høje krav til og føres bedre tilsyn med myndighederne, skriver Louise Holck, direktør i Institut for Menneskerettigheder.

Når kunstig intelligens indgår i sagsbehandlingen, kan det have store konsekvenser for borgernes retssikkerhed og rettigheder, skriver Louise Holck, direktør i Institut for Menneskerettigheder.
Når kunstig intelligens indgår i sagsbehandlingen, kan det have store konsekvenser for borgernes retssikkerhed og rettigheder, skriver Louise Holck, direktør i Institut for Menneskerettigheder.Foto: Niels Ahlmann Olesen/Berlingske/Ritzau Scanpix
Louise Holck
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Ansigtsgenkendelse, maskinoversættelser og rutevejledninger er alle eksempler på kunstig intelligens, som de fleste af os kender, men teknologien bruges også i offentlige myndigheders sagsbehandling, når de skal træffe afgørelser om for eksempel ydelser, indsatser eller sanktioner overfor borgere.

Og stadig flere offentlige myndigheder i Danmark kaster sig over kunstig intelligens – især i håb om, at det vil effektivisere arbejdet.

Kunstig intelligens er i sig selv ikke et problem, men hvis myndighederne ikke er opmærksomme på, hvordan teknologien spiller sammen med de beslutninger, der tages, kan teknologien få alvorlige konsekvenser for borgernes rettigheder.

Og det er der slet ikke nok fokus på i det offentlige i dag. Både i EU, Europarådet og FN er man da også bekymret for, at kunstig intelligens kan underminere beskyttelsen af den enkeltes rettigheder.

Der er brug for mere kontrol – især i situationer, hvor teknologien kan have stor betydning for, hvilken hjælp eller hvilke sanktioner den enkelte borger får.

Louise Holck
Direktør, Institut for Menneskerettigheder

Mere kontrol og åbenhed

I en ny rapport har Institut for Menneskerettigheder kortlagt, hvordan borgernes rettigheder og retssikkerhed påvirkes, når offentlige myndigheder benytter sig af kunstig intelligens. Rapporten er en af de første, der tager udgangspunkt i danske myndigheders praksis og dansk lovgivning.

Med rapporten konkluderer vi, at rammerne ganske enkelt ikke er fulgt med, i takt med at offentlige myndigheder har taget kunstig intelligens i brug.

Der er brug for mere kontrol – især i situationer, hvor teknologien kan have stor betydning for, hvilken hjælp eller hvilke sanktioner den enkelte borger får.

Det bør blandt andet ske ved, at der oprettes et offentligt register over myndigheders brug af profileringsmodeller rettet mod borgerne. Samtidig bør der stilles højere krav om åbenhed fra myndighedernes side, og tilsynet med myndighederne bør generelt styrkes.

Kunstig intelligens må ikke føre til en forringelse 

I dag er det ikke muligt at få et fuldt overblik over, hvilke myndigheder der bruger kunstig intelligens, og vi får som borgere heller ikke nødvendigvis at vide, hvordan kunstig intelligens har bidraget til en afgørelse om os. Der bør fremover være krav om begge dele.

Samtidig skal et uafhængigt tilsyn sikre, at myndighedernes brug af såkaldt algoritmisk profilering ikke fører til en forringelse af borgernes rettigheder og retssikkerhed.

Der findes allerede mange tilsyns- og kontrolorganer, der holder øje med forskellige dele af det offentliges sagsbehandling, men ingen har ansvaret for at føre tilsyn med myndigheders brug af kunstig intelligens.

For at have en reel effekt bør tilsynet følge med, både mens modellerne udvikles, og når de tages i brug. Der er afgørende, at tilsynet er med gennem hele modellens levetid, så det også ser på, hvordan modellen fungerer ude i ”den virkelige verden”.

Modellerne kan videreføre en eksisterende diskrimination i sagsbehandlingen, men den kan også være med til at forværre problemet.

Louise Holck
Direktør, Institut for Menneskerettigheder

Stor risiko for diskrimination

En af de helt store risici ved brugen af kunstig intelligens – og især algoritmiske profileringsmodeller – er diskrimination. Modellerne kan videreføre en eksisterende diskrimination i sagsbehandlingen, men den kan også være med til at forværre problemet.

Det er ellers let at tro, at den maskinlæring, modellerne bygger på, er objektiv. Men virkeligheden er, at de kan skævvride og lave detaljerede profiler af borgerne, som kan få betydning for, hvilken hjælp og service hver enkelt får fra det offentlige.

På den måde kan det for eksempel blive den enkeltes køn, etnicitet eller alder, der bliver afgørende for, om de får den støtte, de har brug for, og så kan der være tale om ulovlig forskelsbehandling.

For at beskytte borgerne mod diskrimination og andre forringelser af deres rettigheder, må regeringen med Justitsministeriet i spidsen sikre, at offentlige myndigheders brug af kunstig intelligens bliver underlagt retningslinjer og kontrol på lige fod med andre dele af den offentlige forvaltning.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00