
Den offentlige sektor er blevet mere og mere digital og automatiseret, og de seneste år er også kunstig intelligens blevet mere udbredt. Kunstig intelligens kan træffe beslutninger på baggrund af enorme datamængder og give store effektiviseringer, men det kan også have store omkostninger for borgerne, når velfærdsstaten eksperimenterer med ny teknologi.
At kunstig intelligens er i vækst i den offentlige sektor, blev tydeligt i forbindelse med aftalen om kommunernes og regionernes økonomi for 2020, hvor der blev aftalt 15 signaturprojekter, der skal afprøve teknologien. Det gælder for eksempel algoritmer, der anvendes som beslutningsstøtte, når der skal træffes afgørelse om sanktioner over for ledige, når der skal tildeles rengøringshjælp, og når det skal vurderes, hvilke borgere der vil have størst gavn af rehabiliterende træning.
Afprøvning af kunstig intelligens giver god mening. Men teknologien skaber også en række udfordringer, som kan have alvorlige konsekvenser for vores grundlæggende rettigheder og retssikkerhed. Det gælder særligt, når kunstig intelligens anvendes til profilering og i nogle tilfælde også forudsigelser af borgernes adfærd, eller når kunstig intelligens anvendes til at træffe afgørelser, der er vanskelige at forklare og efterprøve.
Et eksempel, der illustrerer sidstnævnte problematik, er det værktøj, som er ved at blive udviklet til brug for sagsbehandleres vurdering af underretninger om omsorgssvigtede børn. Ifølge en artikel i Zetland den 2. februar 2021 blev algoritmen fodret med en lang række tidligere sager og testet i to jyske kommuner. En studerende, der undersøgte sagsbehandlernes opfattelse af at anvende algoritmen, undrede sig over en underretning om et toårigt barn, som algoritmen havde givet en lav risikoscore på niveau 1, mens socialrådgiveren var kommet frem til en høj risikoscore på niveau 9. En anden studerende undersøgte matematikken bag algoritmen og kom frem til, at barnets alder havde en uforholdsmæssig stor indflydelse på risikoscoren.
Selvom vi alle kan blive klogere af de mange forsøg med kunstig intelligens, savner jeg en overordnet strategi, der kan sikre en betryggende samfundsmæssig udvikling med kunstig intelligens.
Birgitte Arent Eiriksson
Kommentarskribent
Det viste sig, at algoritmen på grund af det anvendte datainput havde udviklet en aldersbias, hvor lav alder førte til lavere risikovurdering. I den konkrete sag gav algoritmen ikke anledning til, at sagsbehandleren ændrede sin risikovurdering, men det skete i flere andre tilfælde og samlet set i 21 procent af sagerne. Lignende eksempler på bias i algoritmer kendes fra udlandet, ikke mindst i profileringsværktøjer, som skal forudsige kriminalitet på individniveau, hvor mænd med mørk hudfarve har været stærkt overrepræsenterede.
Eksemplerne viser med al tydelighed, at der er behov for meget mere fokus på, hvordan vi udvikler og løbende kontrollerer kunstig intelligens. Der er dog også behov for at drøfte, under hvilke forudsætninger vi anvender teknologien. Forskellen mellem kunstig intelligens, der anvendes som beslutningsstøtte eller til at træffe afgørelse direkte over for borgeren, kan i praksis blive meget lille. Det kræver stor faglig ballast og opmærksomhed at spotte fejlvurderinger i algoritmer, som for eksempel skyldes bias eller udeladelse af en vigtig information, ligesom det vil kræve stor tillid til egne evner at tilsidesætte algoritmens vurdering efter forsøgsstadiet.
Selvom vi alle kan blive klogere af de mange forsøg med kunstig intelligens, savner jeg en overordnet strategi, der kan sikre en betryggende samfundsmæssig udvikling med kunstig intelligens. Velfærdsstaten er måske ikke det bedste sted at eksperimentere. Sårbare borgere bør ikke gøres til ufrivillige forsøgskaniner, og det må under alle omstændigheder sikres, at deres retssikkerhed og grundlæggende rettigheder ikke sættes over styr, når kunstig intelligens afprøves og udbredes.
Dette års signaturprojekter har fokus på klima og hospitalsbehandlinger. Det bliver sikkert spændende, men pas nu godt på de syge borgere.
Indsigt

Karina Adsbøl spørger Peter HummelgaardHvad er holdningen til, at advokater dropper børnesager efter drastisk nedskæring af honoraret?- Udvalget spørgerKan ministeren se et potentiale i at udvide målgruppen for det sociale frikort?
Karina Lorentzen Dehnhardt spørger Peter HummelgaardEr der varetægtsfængslet på en retspsykiatrisk afdeling?
- B 44 At fratage fagpersoner, ledere og ejere retten til at arbejde med sårbare borgere, hvis de dømmes for tyveri, vold, overgreb eller velfærdskriminalitet (Social- og Boligministeriet)2. behandling
- L 125 Lov om forskellige forbrugsafgifter med videre (Skatteministeriet)1. behandling
- L 135 Lov om sundhedsvæsenet på Færøerne (Indenrigs- og Sundhedsministeriet)1. behandling
- Knud Romer: Glædelig 1. maj til de rige røvhuller. Før eller siden bliver det værst for jer selv
- Minoritetsbørn bliver oftere slået, viser rapport. Men der er mindre chance for, at volden bliver opdaget
- Kommuner på stribe erkender fejl i anbringelsessager
- Anti-gambling, grønne erhvervsuddannelser og podcast om hud: Det har fondene givet penge til i april
- Futurecare: Pårørende bærer en stor byrde i stilhed. Nu må politikerne tage ansvar





















