Debat

Lektor: Offentlige algoritmer kan være livsfarlige - derfor bør vi tage ved lære af Tesla

Offentlige algoritmers fejl kan være småirriterende, men kan også være livsfarlige. Når det offentlige indfører algoritmer i sagsbehandlinger, bør offentlige ledere opfodre til at indberette fejl og mangler, ligesom man gør hos Tesla, skriver Hanne Marie Motzfeldt.

Ikke engang Tesla kan udvikle fejlfri løsninger på kunstig intelligens. Det skal vi heller ikke bilde os ind, at vi kan i den offentlige sektor, skriver Hanne Marie Motzfeldt.<br><br>
Ikke engang Tesla kan udvikle fejlfri løsninger på kunstig intelligens. Det skal vi heller ikke bilde os ind, at vi kan i den offentlige sektor, skriver Hanne Marie Motzfeldt.

Foto: Asger Ladefoged/Ritzau Scanpix
Hanne Marie Motzfeldt
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Jeg har navngivet min Tesla "Molly Weasly". Hun er et vidunder udi kunstig intelligens.

Ny temadebat: Giver algoritmer i det offentlige bedre velfærd eller dårligere retssikkerhed?

Den offentlige forvaltning har introduceret brugen af algoritmer i sagsbehandlingen. Disse kan blandt andet bruges til at identificere udsatte børn eller forudsige, hvor stor risikoen er for, at en specifik borger bliver langtidsledig.

Men kritiske røster peger på, at når kunstig intelligens indgår i sagsbehandlingen, kan det have store konsekvenser for borgernes retssikkerhed og rettigheder.

Derfor sætter Altinget Digital i en ny temadebat fokus på det offentliges brug af algoritmer med spørgsmålene:

  • I hvilke tilfælde er det ok, at den offentlige forvaltning bruger algoritmer i sagsbehandlingen, og i hvilke tilfælde bør man holde sig fra det? 
  • Hvordan sikrer vi borgernes retssikkerhed i processen? 
  • Hvor går grænsen egentlig mellem velfærd og overvågning?

Om temadebatter:
I Altingets temadebatter sættes spot på et aktuelt emner.

Alle indlæg er alene udtryk for skribenternes holdning.

Vil du være med i debatten om algoritmer? Indlæg kan sendes til [email protected].

Regner det om morgenen, triller hun gerne hen til hoveddøren og samler mig op. Hvis det er tid for frost, fjerner Molly rimen, inden jeg skal bekvemme mig ud af mit lune køkken. Fra min kalender ved Molly, hvor vi skal hen og er klar med ruten. Hun kan også det, som der er talt og skrevet om i så mange år. Molly kan køre selv.

Ovenstående er med forbehold. Molly kan være ret morgengnaven, hvis nattens opdatering har drillet. I længere perioder har hun ignoreret mine beskeder, som var hun den sjette teenager i husstanden. Og så er der noget virkelig underligt. Molly er hunderæd for motorvejsbroer. Kører vi over eller under en sådan bro, bremser Molly simpelthen brat op.  

Det sidste er faktisk lidt kritisk. Man kunne ligefrem sige livsfarligt. Indtil Teslas softwareudviklere har fået behandlet Molly for hendes bro-fobi, overtager jeg omgående styringen, når der er broer i farvandet.

Det er algoritmisk at fejle

Pointen er, at selv Tesla ikke kan udvikle fejlfri løsninger. Det skal vi heller ikke bilde os ind, at vi kan i den offentlige sektor i Danmark.

Der er en lighed mere. Offentlige algoritmers fejl kan være småirriterende. De kan også være decideret livsfarlige.

Offentlige algoritmers fejl kan være småirriterende. De kan også være decideret livsfarlige.

Hanne Marie Motzfeldt
Lekor i digital forvaltning, Københavns Universitet

En af de mere kendte skandalesager om brug af kunstig intelligens i det offentlige udfoldede sig i Holland og drejede sig om ydelser til børnefamilier. I en årrække brugte de hollandske myndigheder stadig mere avancerede algoritmer til risikoscore og dermed udvælge ydelsessager, der skulle undersøges.

Uanset lovhjemmel til vidtgående databrug, og at det på papiret var menneskelige sagsbehandlere, der traf de endelige beslutninger, begyndte befolkningens protester at lyde højere og højere, som årene gik. Efter blandt andet en ombudsmandssag, en retssag, en parlamentsundersøgelse og en datatilsynssag, tonede der sig da også et ret ubehageligt billede frem.

Algoritmerne havde ikke bare været uigennemsigtige og diskriminerende, men de havde også ramt objektivt forkert. Den efterfølgende sagsbehandling havde været sjusket og irregulær. Estimatet var, at myndighederne fejlagtigt havde taget børneydelserne fra cirka 26.000 uskyldige og lovlydige forældre.

Estimatet var, at myndighederne fejlagtigt havde taget børneydelserne fra cirka 26.000 uskyldige og lovlydige forældre.

Hanne Marie Motzfeldt
Lekor i digital forvaltning, Københavns Universitet

Beretningerne om følgevirkningerne af algoritmernes og myndighedernes hårdhændede fremfærd er ikke for sarte sjæle. Af sagen kan man lære, at det for borgerne ikke er en småting at blive mistænkt for socialt bedrageri. Det kan have alvorlige psykiske konsekvenser. Det kan sammen med tilbagebetalingskrav og lukkede ydelser skabe domino-effekter med nedbrudte familier, skilsmisser og endda selvmord og anbringelser af børn til følge.

Offentlige ledere skal byde klager velkomne
Der er en funktion i Teslaen Molly, der hedder Bug Report. Når Molly skaber sig, så siger jeg "Bug Report". Data om fejl og mangler rapporteres derefter ind til Tesla. Det gør jeg som en tjeneste til Elons Musks hær af softwareudviklere. Det giver dem muligheder for at fjerne fejl og mangler – og forhindre ulykker.

Jeg vil gerne opfordre offentlige ledere til ikke kun at sikre sig, at deres sagsbehandlere faktisk holder hænderne på rattet, når der bruges prædikative algoritmer. Offentlige ledere bør også tydeligt italesætte at indberetninger og klager er særdeles velkomne – for indberetninger og klager er de data om fejl og mangler, som giver jer mulighed for at rette op på fejl og mangler.

"Bug report" er den eneste måde at undgå "Big Bug Report" som i Holland.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00