Debat

Jakob Ullegård: Brug af AI kræver overvejelser om diskrimination

KLUMME: Brug af algoritmer og kunstig intelligens fordrer politisk stillingtagen til, hvordan vi gerne vil trække stregerne og diskriminere, særligt givet Danmarks ambition om at være digital frontløber, skriver Jakob Ullegård.

Et af de store spørgsmål for politikere og embedsmænd i dette århundrede kommer til at være skillelinjen og arbejdsfordelingen mellem mennesker og maskiner, skriver Jakob Ullegård.
Et af de store spørgsmål for politikere og embedsmænd i dette århundrede kommer til at være skillelinjen og arbejdsfordelingen mellem mennesker og maskiner, skriver Jakob Ullegård.
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Af Jakob Ullegård
Crown Prince Frederik Scholar, Harvard Kennedy School

Digitalisering og brug af algoritmer er – heldigvis – en integreret del af den offentlige sektors løbende udvikling.

Potentialet ved at bruge kunstig intelligens (AI) til trafikstyring, hurtig identifikation af sygdomme eller mange andre offentlige opgaver er massivt og kan løfte de offentlige ydelser yderligere.

Det rejser også nye politiske spørgsmål, som skal tackles af både Folketing og af de myndigheder, som rent faktisk omsætter intentionerne til værdiskabende virkelighed.

Fakta
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Debatindlæg kan sendes til [email protected]

Mennesker og maskiner
Det 20. århundredes helt store politiske spørgsmål var, hvor skillelinjen mellem stat og privat skulle gå – lige fra de helt store spørgsmål om, hvem skulle eje produktionsmidlerne, til mere jordnære debatter om privatisering, udbud og udlicitering.

Det store spørgsmål for både politikere og embedsfolk i dette århundrede bliver formentlig skillelinjen mellem mennesker og maskiner – hvad vil vi selv gøre, og hvad er bedst overladt til algoritmer og digitale løsninger?

Her i USA har det eksempelvis vist sig, at algoritmer, som skulle hjælpe dommere med at estimere behovet for kaution, gav resultater med markant racemæssig bias.

Jakob Ullegård
Crown Prince Frederik Scholar, Harvard Kennedy School

Allerede nu fylder de overvejelser meget her på Harvard Kennedy School.

Potentialet ved at flytte skillelinjen er til at få øje på. Men når vi inden længe overlader til algoritmer at finde skattesyndere eller optimere ældreplejen i en given kommune, så slipper vi også noget af kontrollen.

Med AI vil programmerne lære undervejs og dermed nå frem til resultater, som vi ikke umiddelbart kan angive processen for. Det bliver et nybrud.

Kernen er diskrimination
Hele kernen i en algoritme er diskrimination mellem forskellige prioriteter, så programmet ved, at hvis valget står mellem A og B, så skal A prioriteres.

Hver algoritme kommer til at rumme store mængder af den type valg, som samlet set baner vejen for, at de automatiserede løsninger kan bruge computerkraften til at optimere og udføre en given proces bedre/hurtigere/mere konsistent og fejlfrit end vi mennesker.

Men algoritmerne vokser altså ikke ud af ingenting. De vil i sidste ende basere sig på tidligere data, som kan rumme bias, og på vores beslutninger om, hvordan der skal prioriteres.

Eller sagt med andre ord: Hvordan og på hvilket grundlag skal algoritmen diskriminere mellem forskellige befolkningsgrupper og indsatser?

Det kunne være, hvilke sygdomme skal prioriteres i sundhedsvæsnet og hvordan – herunder om alle skal behandles ens, uanset hvordan man i øvrigt tager vare på egen sundhed.

Overvejelser om kontrol
Det fordrer en række politiske beslutninger om datavalg, om hvordan vi præcist trækker stregerne, og om hvem der gør det, efter algoritmen er taget i brug.

Hele pointen ved at bruge algoritmer er, at de hurtigt og bedre kan gøre ting, som vi mennesker ellers skal bruge enormt meget tid og kraft på.

Bliver algoritmen så tilmed lærende via kunstig intelligens, så rejser det spørgsmål om, hvordan vi vil udføre kontrol med de beregnede løsninger og tage ansvar for dem.

Per definition vil vi ikke kunne forklare, hvorfor en given beslutning blev truffet – det sker jo ”inden i” algoritmen. Så hvordan sikrer vi, at det forløber som ønsket?

Her i USA har det eksempelvis vist sig, at algoritmer, som skulle hjælpe dommere med at estimere behovet for kaution, gav resultater med markant racemæssig bias. Det var en uintenderet konsekvens, som først blev fanget ad omveje.

Hvordan diskriminerer vi bedst?
Der er næppe nogen tvivl om, at et af værktøjerne i udviklingen af den offentlige sektor bliver brug af algoritmer, kunstig intelligens og computerkraft.

Regeringen lancerede for nylig sit bud på en strategi, som tager hul på mange af udfordringerne, og her på Harvard investeres tilsvarende meget i at overveje de svære problemstillinger om diskrimination, gennemsigtighed og kontrol.

De diskussioner vil fortsætte i Danmark givet ambitionen om at være digital frontløber.

I regeringens strategi er målet, at ”algoritmerne skal sikre ligebehandling ved at være objektive, saglige og uafhængige af personlige forhold.”

Det er en rigtig ambition, men for at gøre det, skal der politisk tages stilling til, hvordan vi så vil diskriminere.

Den håndtering af skillelinjen mellem mennesker og maskiner bliver et helt afgørende politisk spørgsmål i de kommende årtier. 

---

Jakob Ullegård er tidligere direktør for Danske Rederier, indtil han modtog Crown Prince Frederiks Fund-legatet og med det nu tager et års yderligere uddannelse som MPA-studerende ved Harvard Kennedy School i USA. Hans professionelle karriere startede i partisekretariatet for Venstre på Christiansborg, og han har derudover været politisk rådgiver i Forsvarsministeriet samt været ansat i Landbrug & Fødevarer, Dansk Energi og TDC.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Jakob Ullegård

Særlig rådgiver for forsvarsminister Troels Lund Poulsen (V)
cand.scient.pol. (Københavns Uni. 2003), Crown Prince Frederik Scholar, Harvard Kennedy School

0:000:00