Debat

Sikkerhedskonsulent: Datadrevet tryg­hed presser den demokratiske kontrol

DEBAT: Regeringens tryghedspakke skal øge ressourcerne til datadrevet overvågning. Det er en byttehandel, hvor tryghed vejer tungere end hensynet til demokratiske værdier, skriver konsulent.

Et datadrevet demokrati presser en række etiske, retssikkerhedsmæssige og menneskeretlige forhold, skriver sikkerhedskonsulenten Søren Matz.
Et datadrevet demokrati presser en række etiske, retssikkerhedsmæssige og menneskeretlige forhold, skriver sikkerhedskonsulenten Søren Matz.Foto: Sofie Mathiassen/Ritzau Scanpix
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Af Søren Matz
Selvstændig konsulent med kandidatgrad i sikkerhed og risikomanagement

Digital ansigtsgenkendelse er en noget langhåret betegnelse for en teknologi, der kan genkende ansigter.

Det lyder simpelt og uskyldigt. Teknologien forvandler ansigter til tal og data. Simsalabim.

Men når ansigter omsættes til tal og data, kan ansigtsgenkendelsesteknologi meget mere end bare at genkende ansigter.

Fakta
Dette indlæg er alene udtryk for skribentens egen holdning. 

Alle indlæg hos Altinget skal overholde de presseetiske regler.

Debatindlæg kan sendes til [email protected].

Siden tidernes morgen har vi accepteret, at skønhed afhænger af øjnene, der ser. Den tid er forbi.

Når teknologi omdanner ansigter til data og tal, kan algoritmer bestemme, hvem der er smuk – og hvem der er grim. Vi kan bare spørge tallene i troldspejlet. Så spilder vi ikke tid på at diskutere det. Det kaldes effektivitet.

Datadrevet tryghed udfordrer borgernes frihedsrettigheder.

Søren Matz
Selvstændig konsulent med kandidatgrad i sikkerhed og risikomanagement

Men data om dit ansigt kan meget mere end at afgøre, om du er smuk eller grim.

Kæder karakter og udseende sammen
Siden antikken har man ment, at ansigtstræk afspejler unikke personlige karaktertræk. En pseudovidenskabelig tro på, at der er en sammenhæng mellem sjæl og legeme. Den trosretning kaldes frenologi.

Frenologi er skabt af den tysk-østrigske læge Franz Joseph Gall (1758 til 1828) og bygger på den påstand, at forskellige organer i hjernen repræsenter forskellige egenskaber, og at disse egenskaber kan måles uden på kraniet.

Gall mente, at han havde opfundet en metode, hvormed han kunne måle personlighedstræk, karakteregenskaber, intelligens og psyke ved at undersøge kraniets ydre form.

Når digital ansigtsgenkendelse omsætter ansigter til tal, bliver det muligt at måle en sammenhæng mellem personlighed og udseende.

Ansigtsgenkendelsesteknologien kan altså ikke kun genkende dig eller bestemme, om du er smuk eller grim. Data kan også afgøre, om du har en god eller slet karakter. En algoritme kan på dit glatte ansigt bestemme, om du er et godt eller et dårligt menneske.

Når tal fra ansigtsgenkendelse samkøres i en korrelation med andre tal, kan data bruges til at bestemme, om du er god eller styg, om du er ubrugelig eller værd at satse på, om du er syg eller rask, om du er kreditværdig eller en risiko, eller om du er privilegeret eller udsat.

I yderste konsekvens kan data bruges til at bestemme, om du kan få adgang eller skal sættes udenfor. Den måde at bruge data på kalder jeg cyberfrenologi.

Troen på data omsætter gæt til sandheder
Cyberfrenologi er frenologi i en digital forklædning. Til trods for den fordomsfulde og racistiske konceptuelle arv er cyberfrenologi udtryk for en ny datadrevet måde at betragte verden på.

Vi sætter tal på alt. Selv ansigter. Tal lyver ikke. Det kan de ikke. At lyve er en menneskelig egenskab.

Til gengæld fortæller tal ikke altid hele sandheden. Alligevel er mange beslutninger baseret på tillid til tal. Troen på data omsætter kvalificerede gæt, skønsmæssige vurderinger, skud fra hoften og slag på tasken til evige endegyldige sandheder. 

Det cyberfrenologiske paradigme rykker ved vores kognitive bias – flytter ved vores holdninger og meninger om hinanden.

Cyberfrenologi er som at betragte andre gennem et par briller, hvor du ikke ser personen, men ser en fortolkning af de data, som er tilknyttet den person.

Ansigtsgenkendelse kan derfor ikke bare genkende ansigter, men kan sætte ansigt på det datasæt, der er personhenførbart præcis til dig. Ansigtsgenkendelse kan altså genkende dig på en måde, som du ikke selv kan genkende.

Den fødte forbryder
Med afsæt i frenologiens principper påstod kriminologiens fader, Cesare Lombroso (1835 til 1909), at kriminel adfærd var arvelig og medfødt.

"Den fødte forbryder" kunne identificeres gennem studier og målinger af fysiske træk, og Lombroso udførte en række antropometriske studier med fokus på måling af kranier.

Lombrosos antropometriske profilering af kriminelle skulle underbygge den påstand, at det er muligt ud fra målinger af den menneskelige fysik at identificere personer med kriminelle tilbøjeligheder.

Fra et kriminologisk synspunkt er Lombrosos idé om "den fødte forbryder" blevet afvist som pseudovidenskabeligt sludder. Alligevel puster ansigtsgenkendelsesteknologi nyt liv i Galls og Lombrosos fordomsfulde og kiksede racistiske påstande.

Læs også

To forskere fra Shanghai Jiao Tong University, Xiaolin Wu og Xi Zhang, har i 2016 udviklet en AI, som er baseret på fotografisk ansigtsgenkendelse.

Deres påstand er, at de med deres algoritme kan lære en maskine at læse billeder af menneskelige ansigter og dermed fastslå, hvorvidt den afbildede person har en kriminel karakter.

Deres forskning fører bevis for, at deres AI – med 89,5 procents nøjagtighed – kan bestemme, hvorvidt en person er kriminel eller har kriminelle karaktertræk. Ansigtsgenkendelse kan altså afgøre, om du er lovlydig eller kriminel.

Argumentet er, at ansigtsgenkendelsesteknologi kan udpege en kriminel, allerede inden forbryderen er dømt. I teorien kan man altså forhindre en forbrydelse ved at pågribe forbryderen, inden forbrydelsen er begået.

Teknologien gør det muligt at udpege personer eller hele befolkningsgrupper, der med overbevisende matematisk sandsynlighed vil begå kriminalitet i fremtiden.

Teknologien producerer bias
Cyberfrenologi indeholder en ambition om at beherske fremtiden. Ansigtsgenkendelse er en datadrevet krystalkugle. Det prækognitive element i måden, som vi bruger data på, udgør den centrale motivation og drivkraft i en datadrevet overvågningskultur.

Data fra ansigtsgenkendelsesteknologi kan dokumentere din fortid og overvåge din nutid. Men målet er at forudsige din fremtid – med konkret matematisk sikkerhed.

Personhenførbare data fra ansigtsgenkendelse kan spå om din fremtid og give forudsigelser et skær af evidensbaseret videnskabelig objektivitet.

Teknologien producerer bias, fordomme eller forudsigelser om dig, som du kan få svært ved at slippe af med. Data har ingen sidste salgsdato. Data kan konfrontere dig med din fortid og din nutid på ethvert tidspunkt i din fremtid. 

Det prækognitive element i den måde, som vi bruger data på, er motiveret af et urealistisk politisk krav.

Kravet fra vore folkevalgte er, at ordensmagten skal forhindre kriminalitet. På den konto må vi forvente, at politiet må nedprioritere nærvær, tilstedeværelse, efterforskning og forebyggelse.

Den politiske prioritering forlanger en omstilling, hvor ordenshåndhævelse betyder mange flere ressourcer til datadrevet efterretningsmæssig overvågning.

Regeringens nye tryghedspakke antyder, at omstillingen allerede har fundet sted. Der er intet nyt under solen. Tryghedspakken er bare mere af det samme. 

Overvågning løser ikke grobund for kriminalitet
Kriminalitet er ikke genetisk begrundet. Mennesker begår kriminalitet som resultat af situationsbestemte eller rationelle valg.

Alligevel antyder det prækognitive element i cyberfrenologi, der er omdrejningspunktet for regeringens tryghedspakke, en ukritisk tilbagevenden til ideen om "den fødte forbryder". En tro på, at data fra overvågning og ansigtsgenkendelsesteknologi kan forudsige menneskelig adfærd i fremtiden.

Dermed kaster den politiske intention i tryghedspakken et århundredes kriminologiske teorier om grunden til, at mennesker begår kriminalitet, over højre skulder.

Mere overvågning løser ikke de grundlæggende forhold, der i et samfundsteoretisk perspektiv generelt antages at være grobund for kriminalitet. I et kriminalpolitisk perspektiv udgør ansigtsgenkendelse imidlertid et formidabelt værktøj til efterforskning af forbrydelser.

Teknologien indebærer et løfte om mere effektivt politi, retsforfølgelse og kontrol. Politi og retsvæsen bruger i stigende omfang datadrevet bevisførelse, som er høstet fra masseovervågning, hvor offentlige og private datakilder samkøres.

Anvendelse af data fra ansigtsgenkendelse har indflydelse på etablerede metoder til bevisførelse, ændrer juridiske normer og gør det muligt at straffe kriminalitet, der endnu ikke er begået.

Det gængse politiske argument er, at øget overvågning, kontrol og hårdere straffe er "tryghedsskabende". Tryghed er blevet datadrevet. 

Ret til privatliv afskrives i byttehandel
Generelt indebærer datadrevet demokrati en ugennemsigtig udveksling af rettigheder, hvor en række etiske, retssikkerhedsmæssige og menneskeretlige forhold kommer under pres. Datadrevet tryghed udfordrer borgernes frihedsrettigheder, herunder retten til privatliv.

Rettigheder til privatliv og personlig frihed afskrives i en byttehandel, hvor tryghed vejer tungere end hensynet til demokratiske værdier.

Teknologiudviklingen er løbet fra lovgivningen, men det er stadig et demokrati. Et datadrevet demokrati. Et demokrati uden demokratisk kontrol.

Ansigtsgenkendelse rykker ved grænserne for krænkelser af privatlivets fred. Et hurtigt kig i krystalkuglen antyder, at demokratiske rettigheder i høj grad vil blive presset endnu mere i fremtiden.

Udfordringen er, at vi først lige er begyndt at opdage det. Løsning på en udfordring er betinget af, at man først erkender, at man har et problem.

Er du villig til at veksle privatliv til fordel for datadrevet tryghed?

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Søren Matz

Kriminolog, Selvstændig konsulent, MatzOnline.com
MSc i sikkerhed og risikomanagement (University of Leicester 2011)

0:000:00