Institut for Menneskerettigheder: Der mangler regler for myndighedernes brug af kunstig intelligens
DEBAT: Kunstig intelligens og big data efterlader os i et uigennemsigtigt rum for afgørelser og overvågning, som ikke er et retssamfund værdigt. Vi skal have klare regler for, hvordan myndighederne holdes ansvarlige, skriver Louise Holck.
Af Louise Holck
Vicedirektør, Institut for Menneskerettigheder
Hun er enlig forsørger og bor i et belastet boligområde. Bortset fra adressen ligner hendes liv fuldstændig søsterens, der bor et ”pænere” sted.
Men fordi hun har et postnummer, som, algoritmen tror, er ”uregelmæssigt”, kommer hun på en liste over mulige sociale bedragere.
Sagen tager fart, hun bliver politianmeldt af kommunen, må bruge mange penge på advokatbistand og får i en periode smadret sit liv fuldstændig.
Alle indlæg hos Altinget skal overholde de presseetiske regler.
Debatindlæg kan sendes til [email protected].
Søsteren derimod sker der ingenting med, for algoritmen ser hende ikke som afvigende.
Diskriminerende data
Eksemplet er tænkt og kaldes profilering: I dag er det sådan, at algoritmer profilerer os som borgere. Det sker på baggrund af uendelige mængder data.
Vi skal have et overblik over alle de menneskerettigheder, der kommer i klemme, når algoritmerne er i spil.
Louise Holck
Vicedirektør, Institut for Menneskerettigheder
Det betyder, at vi kan risikere, at vores personlige oplysninger bliver brugt på en usaglig og diskriminerende måde. Som samfund har vi slet ikke undersøgt myndighedernes brug af big data i kombination med kunstig intelligens godt nok.
Derfor er der behov for klare regler for myndighedernes brug af kunstig intelligens.
Og det er helt afgørende, at både retssikkerheden og menneskerettighederne bliver tænkt ind helt fra begyndelsen. Både når algoritmen bliver udviklet, og når myndighederne sætter det i værk.
En af de væsentligste udfordringer ved kunstig intelligens er, at de algoritmer, som myndighederne bruger, er uigennemsigtige, når der skal træffes afgørelser. Vi kan simpelthen ikke forstå algoritmernes logik.
Det kaldes black-box-fænomenet, og heri ligger, at det er vanskeligt at forstå og forklare, hvordan algoritmerne vurderer og sammenkobler oplysninger om borgerne.
Oplysninger, som i øvrigt kan komme fra en bred vifte af offentlige og private aktører, og som kan være indsamlet til helt andre formål.
Og når vi ikke ved, hvordan algoritmerne vurderer og sammenkobler oplysninger om os som borgere, så udfordrer det vores adgang til at få indsigt i, hvordan afgørelser bliver truffet, og om algoritmerne har vurderet vores forhold sagligt og for eksempel ikke udsætter os for diskrimination.
Myndigheder skal kunne stilles til ansvar
Men det er ikke kun regler, der mangler:
Der findes i dag ikke noget samlet overblik over danske myndigheders brug af kunstig intelligens, når de træffer afgørelser. På trods af at mange myndigheder i Danmark bruger mere eller mindre avanceret kunstig intelligens i deres arbejde.
Udviklingen vil fortsætte med voldsom hast. Noget, også regeringen forudsætter i strategien om kunstig intelligens fra foråret 2019.
Politisk er spørgsmålet, om de retssikkerhedsmæssige udfordringer indtil nu kun blevet adresseret sporadisk.
Et lyspunkt er, at ombudsmand Niels Fenger, da han for nyligt tiltrådte, understregede, at en af hans helt centrale opgaver bliver at holde øje med, at den digitale forvaltning i Danmark gennemføres med respekt for borgernes rettigheder.
Men det er ikke nok.
Vi skal have et overblik over alle de menneskerettigheder, der kommer i klemme, når algoritmerne er i spil.
Og vi skal have klare regler for, hvordan myndighederne holdes ansvarlige i takt med den hastigt voksende teknologiske udvikling.