Debat: Politiet skal have valide argumenter for brugen af ansigtsgenkendelse

DEBAT: Brugen af ansigtsgenkendelse griber potentielt ind i grundlæggende rettigheder og friheder. Vi skal nøje overveje konsekvenserne af de muligheder, som overvågning giver, skriver Birgitte Kofod Olsen.

Af Birgitte Kofod Olsen
Partner, Carve Consulting og bestyrelsesformand i Dataethics

Da Brøndby IF indførte ansigtsgenkendelse ved indgangen til stadion tidligere i år, var det med det specifikke formål at undgå, at personer på karantænelisten kom ind.

Man kommer på listen, hvis man overtræder ordensreglementet eller lovgivningen under arrangementer.

Det er et meget fint eksempel på, hvordan ansigtsgenkendelse kan bruges fornuftigt og i begrænset omfang.

Det er således kun personerne på karantænelisten, der bliver genkendt af kameraerne, og som så kan trækkes til side, så personalet kan verificere, at de faktisk er karantæneramt.

Alle andre tilskuere går igennem uden registrering af deres ansigt.

Ansigtsgenkendelse skal kunne forsvares
Generel ansigtsgenkendelse via kameraer på gader og veje af alle borgere griber derimod ind i grundlæggende rettigheder og friheder, potentielt i retten til respekt for privatliv, til forenings- og forsamlingsfrihed, bevægelsesfrihed og ytringsfrihed – også når de optages af politiet.

Vi er derfor nødt til at spørge:

Hvad skal billederne bruges til? Hvem kigger på dem og analyserer dem? Hvad sammenlignes de med? Og hvem kontrollerer, at matchingen er korrekt?

Svarene på disse spørgsmål skal vise os, at de demokratiske spilleregler følges, og at retssikkerhedsgarantierne er opfyldt.

Politiet skal helt konkret kunne argumentere for, hvorfor overvågning af byrummet ved hjælp af ansigtsgenkendelse er nødvendigt i forhold til at efterforske og forebygge kriminalitet.

De skal også kunne påvise, hvorfor ansigtsgenkendelsen er et egnet middel, der står i et rimeligt forhold til formålet. Og politikerne skal sikre, at argumenterne er så valide, at det er forsvarligt at etablere lovgrundlag for brugen af det.

Lad os se på nogle mulige scenarier:

  • Ansigtsgenkendelsen skal bruges til at finde frem til de personer, der er involveret i aktuel kriminalitet. Politiets efterforskere har identificeret personerne, og de er registreret i kriminalregisteret. Kameraerne i byrummet er forbundet med kriminalregisteret og slår derfor ud, når en af personerne viser sig. Politiet kan herefter gribe ind i efterforskningsøjemed eller for at forebygge en kriminel handling.  

  • Som led i realtidsovervågning af bestemte områder eller situationer skal ansigtskendelse bruges til at verificere, hvem der bevæger eller opholder sig i området. De optagne billeder samkøres med fotodatabaser, motorregisteret og CPR. Ved optræk til kriminelle aktiviteter kan politiet gribe ind eller bruge oplysningerne på et senere tidspunkt i efterforskningen af begået kriminalitet. 

  • Den brede og generelle brug af ansigtskendelse på offentlige steder i alle landets kommuner kobles sammen med en AI-baseret algoritme, der på baggrund personernes adfærd og historik forudsiger risikoen for, at de begår kriminalitet. Kommunen og politiet bruger resultaterne til at iværksætte indsatser for borgere med høj risiko. 

Bias i overvågningsteknologi
Ønsker om at forhindre alt fra småkriminalitet til alvorlig kriminalitet og terrorisme har flere steder i verden ført til forslag om løsninger, der minder om de to sidste scenarier.

Men også til forbud mod, at politiet benytter ansigtskendelse som middel til det.

I San Francisco vedtog de i maj måned et forbud, fordi det blev anset som voldsomt indgribende i privatlivets fred, og fordi teknologien fører til fejlidentifikation.

Kvinder og sorte eller brune personer bliver for eksempel fejlidentificeret fem til ti gange hyppigere end hvide mænd.

Man kan også indvende, at brugen af ansigtsgenkendelse udhuler den uskyldsformodning, der i Danmark er indlejret i retsplejeloven:

Enhver er uskyldig, indtil det modsatte er bevist. Hvis politiet bruger teknologien ukritisk, vil jeg i praksis skulle godtgøre, at det ikke er mit ansigt, kameraet har genkendt.

Den eneste løsning, der efter min opfattelse kan realiseres inden for rammerne af vores demokrati og lovgivning som et nødvendigt og proportionalt middel, er derfor den, der er skitseret i det første scenarie.

Om den er effektiv i praksis, kan erfaringerne fra Brøndby snart vise os.

Forrige artikel Parlamentsmedlem: Vi skal i EU tage styringen over kunstig intelligens Parlamentsmedlem: Vi skal i EU tage styringen over kunstig intelligens Næste artikel Tænketank: Danske politikere går lalleglade frem mod overvågnings­samfundet Tænketank: Danske politikere går lalleglade frem mod overvågnings­samfundet
  • Anmeld

    Jesper Lund · Formand, IT-Politisk Forening

    Erfaringerne fra Brøndby

    Efter at have udsat titusindvis af fodboldfans for en totalitær overvågningsteknologi har Brøndby IF ifølge NPR stoppet hele FIRE personer, der var forment adgang til stadion af den ene eller den anden grund.
    https://www.npr.org/2019/10/21/770280447/a-soccer-team-in-denmark-is-using-facial-recognition-to-stop-unruly-fans

    Der er to mulige forklaringer. Enten er der slet ikke noget problem, som Brøndby IF prøver at løse med totalitær overvågningsteknologi (måske er det hele bare en showcase for leverandøren Panasonic?), eller også har man bevidst konfigureret tærsklen for genkendelse meget højt for at undgå de falsk-positive identifikationer, som plager teknologien andre steder (fx erfaringerne i UK og USA). Automatisk ansigtsgenkendelse er en statistisk teknik, ikke en eksakt teknik.

    NPR artiklen afslører i øvrigt også, at dansk politi ULOVLIGT prøvede at få Brøndby til at lægge et billede af en eftersøgt person ind i systemet..

Forsvarets Efterretningstjeneste retter sigtet mod techgiganterne

Forsvarets Efterretningstjeneste retter sigtet mod techgiganterne

NY VERDENSORDEN: Koncentrationen af magt hos få teknologivirksomheder er i gang med at ændre verden. Virksomhederne er ikke en aktuel trussel, men de har en hidtil uset magt til at påvirke politik nationalt og globalt, konstaterer Forsvarets Efterretningstjeneste i en ny udgivelse.