Debat

CBS-forskere: Hold igen med datadeling, indtil der er skabt effektive samtykkemekanismer

Nuværende AI-dilemmaer giver rigelig anledning til at holde igen med datadeling, indtil der er skabt effektive consentmekanismer og ’the right to be excluded’ er etableret og kan håndhæves, skriver Nanna Bonde Thylstrup, Kristian Bondo Hansen, Kasper Lindskow og Mikkel Flyverbom.

Techfirmaer, som udvikler ansigtsgenkendelsessystemer, har fået hjælp fra store databaser af ansigtsbilleder. I et debatindlæg kritiserer forskere fra CBS, at billederne er blevet anvendt uden oplyst tilsagn.
Techfirmaer, som udvikler ansigtsgenkendelsessystemer, har fået hjælp fra store databaser af ansigtsbilleder. I et debatindlæg kritiserer forskere fra CBS, at billederne er blevet anvendt uden oplyst tilsagn.Foto: Mads Claus Rasmussen/Ritzau Scanpix
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Techfirmaer, som udvikler de ansigtsgenkendelsessystemer, der er klassificeret som højrisiko-teknologier af EU, har måske fået hjælp fra et uventet sted: dit ansigt.

Forskningsprojektet ’Exposing.ai’ har bygget et værktøj, der lader folk søge efter deres egen tilstedeværelse i de billedsamlinger, som danner fundamentet for mange ansigtsgenkendelsesteknologier.

Temadebat

I april kom EU-Kommissionen med et forslag til, hvordan kunstig intelligens kan reguleres på verdensplan.

Ifølge Kommissionen selv, er det første gang nogensinde, der bliver foreslået en retlig ramme for kunstig intelligens.

Reglerne skal nu forhandles på plads mellem Europa-Parlamentet, Kommissionen og medlemslandene. Når det er sket, begynder en implementeringsperiode, hvorefter reglerne vil være gældende i hele EU.

Lovprocessen rejser dette grundlæggende spørgsmål: Hvordan skal vi udnytte kunstig intelligens?

Her er panelet

  • Mikael Ekman, direktør for Politik og Strategi, Microsoft Danmark & Island
  • Natasha Friis Saxberg, direktør, IT-Branchen
  • Anders Kofod-Petersen, professor ved Norges Teknisk-Videnskabelige Universitet, Trondheim; afgående AI-forsker ved Alexandra Instituttet
  • Jesper Lund, formand, IT-Politisk Forening
  • Rikke Frank Jørgensen og Marya Akhtar, seniorforsker og specialkonsulent, Institut for Menneskerettigheder
  • Niels Bertelsen, formand, Prosa
  • Thomas Ploug, professor, Institut for Kommunikation og Psykologi, Aalborg Universitet
  • Karen Melchior (R), medlem af Europa-Parlamentet
  • Birgitte Arent Eiriksson, vicedirektør, Justitia
  • Rikke Hougaard  Zeberg, branchedirektør, DI Digital
  • Nanna Bonde Thylstrup, lektor med speciale i kommunikation og digitale medier, CBS
  • Christel Schaldemose (S), medlem af Europa-Parlamentet
  • Janus Sandsgaard, digitaliseringspolitisk fagchef, Dansk Erhverv

Værktøjet, som matcher billeder fra den – i øvrgit aldrende – billeddelingsplatform, Flickr, giver et indblik i de enorme mængder data, som kunstig intelligens kræver.

Almindelige mennesker ved ofte ikke, at de bidrager til udviklingen af kunstig intelligens. For nogle føles erkendelsen grænseoverskridende. Andre oplever det som en naturlig og uproblematisk forlængelse af deres digitale tilværelse.

Men de færreste har overblik over, hvilke sammenhænge deres data bruges i.

Downloadet tusindvis af gange
Til denne artikel søgte vi på søgeordet '#copenhagen' i Exposing.ai-systemet.

Ud af den enorme database dukkede 2.399 taggede billeder op med dette hashtag i billedsamlingen ’Megaface’, som er et kæmpe datasæt, der består af billeder af ansigter.

Disse billeder og 3.578.697 øvrige billeder er blevet brugt til ansigtsgenkendelse i mindst 78 projekter og i 14 forskellige lande.

Ifølge New York Times er Megaface-datasættet blevet downloaded tusindvis af gange af det amerikanske forsvarsfirma Northrop Grumman; In-Q-Tel, CIA’s investeringsaafdeling; Bytedance, som ejer det kinesiske sociale medie TikTok, og det kinesiske overvågningsfirma Megvii.

Exposing.ai har også fundet download-henvendelser fra det danske politi, Europol, Facebook, Google, Huawei, Microsoft, IARPA, det russiske sikkerhedsfirma Stilsoft.ru, det tyrkiske politi og Hoan Ton-That, som ejer det omstridte sikkerhedsfirma Clearview.ai.

Nogle af de systemer, som udvikles, anvendes angiveligt til forskningsformål, der ikke har anvendelse uden for laboratoriet, mens andre bruges til træning af systemer, der overvåger mennesker for at målrette annoncer eller spore mennesker i det fysiske rum.

Det er problematisk, at ansigtsbilleder er blevet anvendt og formentlig stadig bliver det uden oplyst tilsagn

Nanna Bonde Thylstrup, Kristian Bondo Hansen, Kasper Lindskow og Mikkel Flyverbom
Nanna Bonde Thylstrup, Kristian Bondo Hansen, Kasper Lindskow og Mikkel Flyverbom

Uanset anvendelsen er det problematisk, at ansigtsbilleder er blevet anvendt og formentlig stadig bliver det uden oplyst tilsagn.

Umuligt at fjerne data
Spørgsmålet melder sig ikke desto mindre: Hvis man opdager, at man befinder sig i denne database og gerne vil undgå, at éns ansigt bliver brugt i en eller flere af disse forbindelser, hvilke muligheder har man så for at trække sin data tilbage?

Værktøjet Exposing.ai har allerede skabt bølger i vandet i forskningsverdenen, hvor adskillige forskere har trukket adgangen til højtprofilerede datasæt tilbage.

Men selv hvis adgangen til selve datasættet trækkes tilbage, vil billederne ofte stadig cirkulere i andre udgaver. Det er med andre ord utroligt svært, for ikke at sige umuligt, at fjerne data, når det først er sat i cirkulation.

Det er denne erkendelse, som har medført, at den europæiske regulering er så restriktiv på området – især når det kommer til potentielt sensitiv data.

Det er utroligt svært, for ikke at sige umuligt, at fjerne data, når det først er sat i cirkulation

Nanna Bonde Thylstrup, Kristian Bondo Hansen, Kasper Lindskow og Mikkel Flyverbom
Forskere i kunstig intelligens, CBS

Samtidig anerkender både policy makers og industrien, at en for snæver lovgivning kan hindre de fremskridt, som kunstig intelligens byder på.

Hold igen med datadeling
GDPR har måske bidraget til at løse noget af problemet fremadrettet for EU-borgere.

I hvert fald har nogle tech-giganter sat anvendelse af billeder af europæiske borgere til træning af AI-systemer på pause.

Facebook undlod eksempelvis i starten af 2021 helt at inkludere billeder af europæere i deres aktuelle flagskibssmodel til billedgenkendelse, SEER. I stedet blev der brugt en milliard billeder fra Facebookejede Instagram fra borgere uden for EU.

Men det viser også de nye teknologiers iboende dilemma: Der forlyder rygter om, at netop på grund af GDPR er Facebook nu angiveligt blevet dårligere til at identificere europæiske borgere.

Om det er godt eller skidt vil nok afhænge af øjnene, der ser.

Men en foreløbig delkonklusion kunne være, at de nuværende dilemmaer giver rigelig anledning til at holde igen med datadeling, indtil der er blevet skabt effektive consentmekanismer, og at ’the right to be excluded’ er blevet etableret juridisk og i praksis kan håndhæves på tværs af grænser og sektorer.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00