Kunstig intelligens kan løfte borgere – eller holde dem nede

Kunstig intelligens kan forudsige problemer, før de opstår. Men computere har en stærk tendens til at opbygge fordomme, der betyder, at bestemte grupper i befolkningen systematisk bliver udpeget som potentielt problematiske.  

Hvilke hensyn skal vi tage, når det ikke længere kun er et menneskeligt skøn, der afgør udfaldet af sagsbehandlingen, men også computere og algoritmer?<br>
Hvilke hensyn skal vi tage, når det ikke længere kun er et menneskeligt skøn, der afgør udfaldet af sagsbehandlingen, men også computere og algoritmer?
Peter Hesseldahl

Udviklingen af kunstig intelligens åbner for et væld af muligheder for at lave forudsigelser og forebyggelse i det offentliges sagsbehandling. Men der følger en række svære dilemmaer med.

Der er to danske projekter, som meget tydeligt illustrerer de dilemmaer: Gladsaxe Kommunes dataovervågning og jobcentrenes profileringsværktøj.

Der kan siges meget positivt om projekterne. I begge tilfælde handler det offentlige proaktivt ved at analysere data for at forebygge, at borgerne løber ind i alvorlige problemer.  

I Gladsaxe forsøgte man så tidligt som muligt at identificere børn, der var i risiko for mistrivsel, fordi tidlige indsatser giver langt bedre chancer for at undgå langsigtede problemer. På jobcentrene bruger man en algoritme til at finde de personer, der er i særlig risiko for at blive langtidsledige og derfor bør have særlig støtte af systemet.

Så snart faktorer som herkomst eller etnicitet indgår, så skal man være særlig på vagt – men problemet kan være, at det er usynligt for alle andre end maskinen.

Johan Busse
Formand, Dataetisk Råd

Man kan spørge, om det ikke er præcis den form for rettidig omhu og forebyggende indsats, vi kunne ønske os af det offentlige?

Alligevel er de to projekter især blevet eksempler på diskrimination og snagen i borgernes privatliv – og på, hvordan AI-projekter kan køre af sporet, når offentligheden hører, hvad der foregår.

Når man bruger kunstig intelligens, kan man ikke forudsige 100 procent sikkert – kun med en vis sandsynlighed. Men hvis man begynder at forudsige ting som en kriminel løbebane, kan man så påvirke en person, hvis de får hæftet det mærkat på sig? Hvilken betydning vil den forudsigelse have på et liv?

Rikke Zeberg
Direktør, Digitaliseringsstyrelsen

I jobcentrenes profileringsværktøj til at forudsige, hvem der har størst risiko for at blive langtidsledig, indgår det, at personer, der er indvandrere eller efterkommere af indvandrere, statistisk har større risiko. Den vurdering blev af mange opfattet som diskrimination snarere end positiv særbehandling.

I Gladsaxe Kommune var det planen – indtil systemet måtte skrinlægges – at en algoritme skulle identificere familier, hvor børnene formentlig mistrives, ved at vurdere alle familier ud fra faktorer som forældrenes ledighed, uddannelsesbaggrund, sundhedsdata og eventuelt misbrug. Også faktorer som at udeblive til aftaler i skoletandplejen indgik i den samlede vurdering.

Hanne Marie Motzfeldt, lektor i digital forvaltning ved Københavns Universitets Juridiske Fakultet, er yderst betænkelig ved Gladsaxe-modellen.

Dokumentation

AI i det offentlige
Kunstig intelligens er på vej ind i den offentlige sektor. I en serie artikler ser Altinget og Mandag Morgen nærmere på, hvordan avanceret automatisering og dataanalyse påvirker sagsbehandlingen og lovgivningen, og hvilke etiske dilemmaer kunstig intelligens fører med sig.


Altinget logoDigital
Vil du læse artiklen?
Med adgang til Altinget digital kommer du i dybden med Danmarks største politiske redaktion.
Læs mere om priser og abonnementsbetingelser her
0:000:00