
Må politiet bekæmpe børnemisbrug ved selv at skabe det?
Det lyder paradoksalt, men netop dette dilemma står vi over for, når kunstig intelligens bringes i spil i kampen mod børnemisbrugsmateriale.
Fremstilling og deling af sådant materiale på nettet er et voksende globalt problem, og politiet ser nu en mulighed i at anvende AI til at generere falsk børnemisbrugsmateriale som led i deres efterforskning.
Men hvordan balancerer vi behovet for effektiv kriminalitetsbekæmpelse med grundlæggende dataetiske principper om gennemsigtighed og ansvarlighed?
Det korte svar er, at vi i Dataetisk Råd ser positivt på anmodningen og anbefaler, at politiet får de ønskede beføjelser under forudsætning af, at AI-værktøjerne ikke er trænet på ægte materiale.
Det kan virke kontroversielt, men lad os se på de dataetiske overvejelser bag vores vurdering.
Behov for materiale at bytte med
Rigspolitiets ønske er beskrevet i et udkast til et lovforslag, en ændring i straffelovens §754, der skal styrke indsatsen mod seksuelt krænkende materiale og som skal behandles i Folketinget.
Årsagen er, at det ofte kræver, at man som udefrakommende selv er i besiddelse af børnemisbrugsmateriale, hvis man vil have adgang til de netværk, hvor den slags materiale deles.
Politiet har med andre ord behov for at have noget at bytte med og ser derfor muligheder i at lade en kunstig intelligens generere uægte børnemisbrugsmateriale.
Ønsket om at bruge AI-teknologi til dette formål rummer flere dataetiske dilemmaer, så selvom vi i Dataetisk Råd ikke er indkaldt til at give et høringssvar, har vi valgt at tage sagen op på egen hånd.
I Dataetisk Råd ser positivt på anmodningen og anbefaler, at politiet får de ønskede beføjelser, under forudsætning af, at AI-værktøjerne ikke er trænet på ægte materiale.
Johan Busse
Formand, Dataetisk Råd
Fremstillet materiale kan krænke virkelige børn
De væsentligste dataetiske overvejelser knytter sig i vores øjne til to forhold.
Selve fremstillingen af det uægte materiale kan indebære en krænkelse af børn, og for det andet kan politiet ikke forhindre eventuel videredistribuering af det ulovlige materiale, når først det er blevet delt.
Politiet kan altså ende med at bidrage til de skadevirkninger, som det ønsker at bekæmpe.
Ved fremstillingen af uægte misbrugsmateriale er der risiko for, at virkelige børn krænkes på to måder.
Det er en klar krænkelse af ofrenes værdighed og privatliv, hvis en AI-model trænes med ægte overgrebsmateriale, og det er krænkende, hvis der opstår ligheder mellem virkelige børn og de børn, der optræder på AI-genereret seksuelt materiale med personer under 18 år.
Dataetisk Råd anbefaler derfor, at det sikres, at politiet alene anvender AI-værktøjer, der ikke er trænet på ægte misbrugsmateriale.
Samtidig er det rådets vurdering, at muligheden for at virkelige personer utilsigtet bliver genkendelige i outputtet fra AI-modellerne primært er hypotetisk.
Sandsynligheden er, efter rådets oplysninger, meget lav i praksis, og Dataetisk Råd vurderer derfor, at risikoen for, at virkelige børn bliver krænket ved politiets fremstilling og anvendelse af kunstigt misbrugsmateriale, dels kan løses teknisk og dels er beskeden.
En dråbe i havet
Den anden indvending mod AI-genereret seksuelt materiale med personer under 18 er, at eksponering for børnemisbrugsmateriale i sig selv kan have negative følger og mulighed for krænkelser af børn.
Hvis politiet deler børnemisbrugsmateriale og derved bidrager til at øge den samlede mængde af seksuelt materiale med personer under 18 år på internettet, kan det betyde, at flere støder på det.
Undersøgelser på området indikerer, at mange misbrugere af seksuelt materiale med personer under 18 år ofte først falder over materialet som led i anden aktivitet på nettet eller på grund af nysgerrighed.
Senere kan adfærden optrappes og blive mere ekstrem og i sidste ende medføre en risiko for at begå kontaktovergreb mod børn. Der findes desværre ikke entydig forskning på området.
De mulige gevinster for efterforskningsarbejdet overstiger i vores øjne de dataetiske betænkeligheder, der kan overvindes ved tekniske løsninger, åbenhed og evaluering.
Johan Busse
Formand, Dataetisk Råd
Derimod viser tal fra CyberTipline, der samler indberetninger fra de store digitale platforme, at der i 2023 blev indberettet over 35,9 millioner eksempler på børnemisbrugsmateriale — en stigning på 12 procent i forhold til 2022.
Tal der på en gang underbygger politiets argument for de nye værktøjer og samtidig får rådet til at vurdere, at politiets bidrag til den samlede mængde misbrugsmateriale vil være en dråbe i havet.
De mulige gevinster for efterforskningsarbejdet overstiger dermed i vores øjne de dataetiske betænkeligheder, der kan overvindes ved tekniske løsninger, åbenhed og evaluering.
Årlig rapport til Folketinget og offentligheden
Vores anbefaling forudsætter derfor, at fremstillingen af AI-genereret børnemisbrugsmateriale ikke anvender virkeligt børnemisbrugsmateriale som træningsgrundlag.
Derudover anbefaler Dataetisk Råd, at politiet offentliggør en teknisk beskrivelse af deres metode, hvis det er muligt uden at kompromittere efterforskningsarbejdet, og at politiets brug af AI-genereret seksuelt materiale med personer under 18 år årligt rapporteres til Folketinget og offentligheden.
Brugen af de nye værktøjer bør desuden evalueres efter for eksempel to år med fokus på effekten af politiets efterforskningsarbejde og eventuelle tegn på negative følgevirkninger.
Efter en balanceret afvejning af gevinster og skadevirkninger er det i et dataetisk perspektiv positivt, at politiet nu får adgang til nye digitale værktøjer, der kan sikre en mere effektiv efterforskning og bekæmpelse af børnemisbrugsindhold.
Artiklen var skrevet af
- Salg af Altinget og Mandag Morgen til JP/Politikens Hus er godkendt
- Kommunernes udgifter til Microsoft er næsten fordoblet på seks år: "Det er en ret voldsom stigning"
- Psykiatrifonden: Fire ud af ti unge bruger chatbots som terapeut. Det er på tide at sætte et sikkerhedsnet op
- DTU-rektor: AI-spareplaner på universiteterne vil føre til dårligere forskning
- Ugens digitalchef: Sådan bruger vi kunstig intelligens i sundhedsvæsenet




















