Debat

IT-Politisk Forening om AI-udspil: Listen over forbudte anvendelser er alt for kort

En omfattende regulering af kunstig intelligens er nødvendig, hvis vi skal sikre, at teknologien understøtter europæiske samfundsværdier frem for at modarbejde dem. EU-kommissionens liste over forbudte anvendelser bør udvides, mener Jesper Lund.

EU bør
forbyde flere skadelige anvendelser af kunstig intelligens end Kommissionens
udspil lægger op til, mener Jesper Lund, formand for IT-Politisk Forening.
EU bør forbyde flere skadelige anvendelser af kunstig intelligens end Kommissionens udspil lægger op til, mener Jesper Lund, formand for IT-Politisk Forening.Foto: Andreea Belu
Jesper Lund
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Når man læser om kunstig intelligens er det nemt at blive begejstret over alt det som bliver muligt fremover.

Temadebat

I april kom EU-Kommissionen med et forslag til, hvordan kunstig intelligens kan reguleres på verdensplan.

Ifølge Kommissionen selv, er det første gang nogensinde, der bliver foreslået en retlig ramme for kunstig intelligens.

Reglerne skal nu forhandles på plads mellem Europa-Parlamentet, Kommissionen og medlemslandene. Når det er sket, begynder en implementeringsperiode, hvorefter reglerne vil være gældende i hele EU.

Lovprocessen rejser dette grundlæggende spørgsmål: Hvordan skal vi udnytte kunstig intelligens?

Her er panelet

  • Natasha Friis Saxberg, direktør, IT-Branchen
  • Anders Kofod-Petersen, professor ved Norges Teknisk-Videnskabelige Universitet, Trondheim; afgående AI-forsker ved Alexandra Instituttet
  • Jesper Lund, formand, IT-Politisk Forening
  • Rikke Frank Jørgensen og Marya Akhtar, seniorforsker og specialkonsulent, Institut for Menneskerettigheder
  • Niels Bertelsen, formand, Prosa
  • Thomas Ploug, professor, Institut for Kommunikation og Psykologi, Aalborg Universitet
  • Karen Melchior (R), medlem af Europa-Parlamentet
  • Birgitte Arent Eiriksson, vicedirektør, Justitia
  • Rikke Hougaard  Zeberg, branchedirektør, DI Digital
  • Nanna Bonde Thylstrup, lektor med speciale i kommunikation og digitale medier, CBS
  • Christel Schaldemose (S), medlem af Europa-Parlamentet
  • Janus Sandsgaard, digitaliseringspolitisk fagchef, Dansk Erhverv

Men anvendelsen af kunstig intelligens kan også skabe betydelige risici for borgernes grundlæggende rettigheder og det demokratiske samfund.

Teknologi til at analysere store datamængder kan eksempelvis misbruges til systematisk overvågning og kontrol af befolkningen.

Tiltag, som kendes fra GDPR
Kunstig intelligens kan forstærke eksisterende sociale uligheder mellem borgerne og magtfulde aktører som staten og store virksomheder.

Disse aktører har de økonomiske ressourcer og adgangen til store datamængder, som er forudsætningen for udvikling og anvendelse af kunstig intelligens.

Som AI-forskeren Kate Crawford udtalte til Wired for nylig er ’kunstig intelligens’ hverken kunstig eller intelligent. Der er tale om modeller til statistiske forudsigelser, som ofte er blevet så komplicerede, at ingen reelt kan overskue konsekvenserne, herunder ikke mindst risikoen for diskrimination fra bias i modellerne.

Tanken om at computeralgoritmer designet på den måde skal træffe automatiske afgørelser hen over hovedet på borgerne er skræmmende i sig selv.

En omfattende regulering af kunstig intelligens er derfor nødvendig, hvis vi skal sikre, at teknologien understøtter europæiske samfundsværdier frem for at modarbejde dem.

Visse anvendelser af kunstig intelligens, specielt relateret til masseovervågning, kan medføre så store skader på grundlæggende samfundsværdier, at det er nødvendigt med et eksplicit forbud

Jesper Lund
Formand, IT-Politisk Forening

I mange tilfælde (men ikke alle) kan dette sikres med de tiltag, som kendes fra GDPR:

Retsgarantier for borgerne, formålsbegrænsning for anvendelsen, obligatoriske konsekvensanalyser, tekniske beskyttelsesforanstaltninger som privacy by design og en uafhængig tilsynsmyndighed, som effektivt kan sanktionere lovovertrædelser med bøder.

Eksplicitte forbud nødvendigt
I forhold til kunstig intelligens er denne type regulering imidlertid ikke nok. Visse anvendelser af kunstig intelligens, specielt relateret til masseovervågning, kan medføre så store skader på grundlæggende samfundsværdier, at det er nødvendigt med et eksplicit forbud.

En regulering af kunstig intelligens bør derfor sætte klare juridiske rammer for, hvad der er uacceptabel - forbudt - anvendelse af teknologien.

European Digital Rights (EDRi), som IT-Politisk Forening er medlem af, offentliggjorde i juni 2020 et positionspapir med sådanne anbefalinger for reguleringen af kunstig intelligens.

Sammen med en række andre civilsamfundsorganisationer deltager IT-Politisk Forening i koalitionen Reclaim Your Face, som siden februar 2021 har arbejdet på at indsamle underskrifter til et europæisk borgerinitiativ (ECI) om at forbyde biometrisk masseovervågning (som ansigtsgenkendelse).

På trods af GDPR er disse teknologier desværre ved at blive udbredt, som dokumenteret af Reclaim Your Face-medlemmernes research.

Forbudslisten er for kort
Det er derfor glædeligt, at EU-Kommissionens udspil til regulering af kunstig intelligens både indeholder en liste med forbudt praksis for kunstig intelligens (afsnit II) og en detaljeret regulering af anvendelser af systemer til kunstig intelligens som udgør såkaldt ’høj risiko’ (afsnit III).

Listen med forbudt praksis for kunstig intelligens i Kommissionens forordningsforslag er desværre alt for kort

Jesper Lund
Formand, IT-Politisk Forening

Listen med forbudt praksis for kunstig intelligens i Kommissionens forordningsforslag er desværre alt for kort.

Der er kun egentlige forbud mod 'social credit score' systemer (som de kendes fra Kina) hos offentlige myndigheder, subliminal manipulation af menneskers adfærd og udnyttelse af menneskelige sårbarheder. Derudover er biometrisk fjernidentifikation i realtid forbudt på offentlige steder, men kun for politiet, og dette forbud er på forhånd udhulet af en række undtagelser.

Listen med forbud burde omfatte systemer til såkaldt ’predictive policing’ og grænsekontrol, der kun er klassificeret som ’højrisiko’-systemer i Kommissionens forslag. Grænsekontrol bliver i stigende grad baseret på individuelle risikovurderinger som i filmen ’Minority Report’.

Et eksempel er det EU-støttede udviklingsprojekt iBorderCtrl. Den Europæiske Union kan ikke holde fanen højt for grundlæggende rettigheder og samtidig udsætte tredjelandsborgere for den type nedværdigende behandling.

Forbuddet mod biometrisk fjernidentifikation i realtid bør udvides til at gælde for alle dataansvarlige, og det bør omfatte biometrisk masseovervågning mere generelt, ikke bare til identifikation.

Ansigtsgenkendelse til biometrisk kategorisering og følelsesgenkendelse (’emotion recognition’) er også meget problematisk, blandt andet fordi det kan føre til diskrimination mod minoritetsgrupper. Samtidig er der tale om teknikker som bedst kan karakteriseres som pseudovidenskab.

Et forbud mod anvendelsen i det offentlige rum er derfor helt oplagt her.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00