Debat

AI-regulering kritiseres af forsker: Sætter ikke mennesket i centrum

EU forsøger at regulere AI-systemer efter risiko, et projekt med mange problemer og uklarheder. En rettighedsbaseret tilgang med mennesket i centrum er det bedste afsæt for AI-regulering, skriver Thomas Ploug.

I april kom Margrethe Vestager (R) og EU-kommissionen med verdens første forslag til regulering af kunstig. Forslagets risikobaserede tilgang kritiseres af AI-forsker, Thomas Ploug.
I april kom Margrethe Vestager (R) og EU-kommissionen med verdens første forslag til regulering af kunstig. Forslagets risikobaserede tilgang kritiseres af AI-forsker, Thomas Ploug.Foto: Pool/Reuters/Ritzau Scanpix
Thomas Ploug
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

EU-forordningsforslaget til regulering af AI tager en risikobaseret tilgang til reguleringen af AI.

Forslaget inddeler således AI systemer i tre risiko-kategorier: 1) forbudte, 2) højrisiko, og 3) lavrisiko. Forslaget stiller desuden særskilt krav om gennemsigtighed for systemer, der interagerer med mennesker.

Intet forbud mod mistænkeliggørelse
De forbudte systemer er sådanne, der påvirker menneskelig adfærd ved brug af subliminale teknikker eller ved udnyttelse af menneskelige sårbarheder, hvor dette sandsynligvis fører til fysisk eller psykisk skade.

Temadebat

I april kom EU-Kommissionen med et forslag til, hvordan kunstig intelligens kan reguleres på verdensplan.

Ifølge Kommissionen selv, er det første gang nogensinde, der bliver foreslået en retlig ramme for kunstig intelligens.

Reglerne skal nu forhandles på plads mellem Europa-Parlamentet, Kommissionen og medlemslandene. Når det er sket, begynder en implementeringsperiode, hvorefter reglerne vil være gældende i hele EU.

Lovprocessen rejser dette grundlæggende spørgsmål: Hvordan skal vi udnytte kunstig intelligens?

Her er panelet

  • Mikael Ekman, direktør for Politik og Strategi, Microsoft Danmark & Island
  • Natasha Friis Saxberg, direktør, IT-Branchen
  • Anders Kofod-Petersen, professor ved Norges Teknisk-Videnskabelige Universitet, Trondheim; afgående AI-forsker ved Alexandra Instituttet
  • Jesper Lund, formand, IT-Politisk Forening
  • Rikke Frank Jørgensen og Marya Akhtar, seniorforsker og specialkonsulent, Institut for Menneskerettigheder
  • Niels Bertelsen, formand, Prosa
  • Thomas Ploug, professor, Institut for Kommunikation og Psykologi, Aalborg Universitet
  • Karen Melchior (R), medlem af Europa-Parlamentet
  • Birgitte Arent Eiriksson, vicedirektør, Justitia
  • Rikke Hougaard  Zeberg, branchedirektør, DI Digital
  • Nanna Bonde Thylstrup, lektor med speciale i kommunikation og digitale medier, CBS
  • Christel Schaldemose (S), medlem af Europa-Parlamentet
  • Janus Sandsgaard, digitaliseringspolitisk fagchef, Dansk Erhverv

Det inkluderer også systemer i det offentlige, hvis disse bruges til evaluering af personers troværdighed og dette fører til skadelig eller ugunstig behandling af disse.

Og endelig rummer forslaget et forbud mod visse former for biometrisk fjernidentifikation, for eksempel ansigtsgenkendelse i det offentlige rum.

Kategoriseringen rejser naturligvis en række spørgsmål og problemer. For det første, er det ikke klart, hvad der præcist forstås ved subliminale teknikker.

Det er endnu mindre klart, hvorfor anvendelsen af subliminale teknikker skal føre til forbud, når der er tale om fysisk og psykisk skade, men ikke krænkelse af mine demokratiske rettigheder. Der er således ikke forbud mod at anvende subliminale teknikker til at påvirke min stemmeafgivning ved et folketingsvalg.

Endelig er det ikke klart, hvad forbuddet mod evaluering af personers troværdighed dækker over.

Selvom det umiddelbart ser ud til at være rettet mod introduktionen af Kina-lignende ’social scores’ i det offentlige system, er det tvivlsomt, om det vil udelukke Gladsaxe-sager – altså, at man i det offentlige evaluerer og klassificerer familiers trivselsramthed på baggrund af data indsamlet til andre formål.

Den risikobaserede tilgang sætter ikke borgeren i fokus for reguleringen, men er drevet af at fremme AI-udvikling til samfundets bedste

Thomas Ploug
AI-forsker

Hvis det ikke fører til skadelig eller ugunstig behandling, er der i udgangspunktet ikke forbud mod at mistænkelig­gøre borgerne.

Kan bruges nærmest ureguleret
Langt hovedparten af forordningsforslaget omhandler reguleringen af højrisikosystemer.

I forslaget defineres otte typer af højrisikosystemer. Det er AI-systemer anvendt inden for biometrisk kategorisering, kritisk infrastruktur, uddannelse, rekruttering og beskæftigelse, private og offentlige ydelser, retshåndhævelse, migrations-, asyl- og grænseområdet, og retspleje.

Der er desuden angivet kriterier for øvrige højrisikosystemer. Det er sådanne, der udgør en risiko for skade på sundhed, sikkerhed eller grundlæggende rettigheder, der er mindst lige så stor som for AI-systemer anvendt inden for de otte områder.

Udbydere af højrisikosystemer skal oprette et risikostyrings­system, der kontinuerligt kortlægger, evaluerer og håndterer risici ved systemet. Systemerne skal have en passende grad af gennemsigtighed, der skal føres menneskeligt tilsyn, systemaktiviteter skal logges, og de skal leve op til krav om nøjagtighed og sikkerhed og så videre.

Der skal også etableres et kvalitetssikringssystem, der sikrer overholdelse af forordningen krav.

Også denne del af forslaget rejser spørgsmål.

Der er ikke forbud mod at anvende subliminale teknikker til at påvirke min stemmeafgivning ved et folketingsvalg

Thomas Ploug
AI-forsker

I 2015 grundlagde Elon Musk AI-laboratoriet OpenAI, der har som mål at fremme og udvikle ’friendly AI.’ Laboratoriet har udviklet en deep-learning sprogmodel, GPT3, der er i stand til at producere naturligt-sproglige tekster, der er nærmest uskelnelige fra menneskeligt producerede tekster. I 2020 advarede forskerne bag modellen om, at GPT3 blandt andet ville være et effektivt middel til at sprede misinformation.

Er GPT3 et højrisikosystem?

Det synes at falde uden for forordningsforslagets otte kategorier, og det er vel usikkert, om det udgør en tilstrækkelig stor risiko for sundhed, sikkerhed og demokratiske rettigheder – ikke mindst fordi udviklingen og brugen af sådanne systemer alt andet lige også må være beskyttet af ytringsfrihed.

I værste fald, vil sådanne systemer kunne bruges og udvikles nærmest ureguleret. Det falder heller ikke nødvendigvis under forordningsforslagets gennemsigtighedskrav til systemer, som mennesker interagerer med, idet disse regler gælder AI-genererede billeder, lyd og video af ’faktiske’ personer og begivenheder og så videre (’deep-fakes’).

Den risikobaserede tilgang giver desværre en risiko for, at AI-systemer over- og underreguleres betydeligt, fordi risikokriterierne fortolkes for svagt eller for stærkt, og fordi reguleringen af højrisiko og lavrisikosystemer er så forskellig.

Sætter ikke borgeren i centrum
Det største problem med forordningsforslagets primært risikobaserede tilgang er dog for mig at se, at den i bund og grund indebærer, at jeg som borger kan gøres til genstand for stort set ethvert tænkeligt AI-systems profilering og prediktion, hvis systemet er ledsaget af et risikostyrings- og kvalitetssikringssystem.

Borgerne er altid den svage part i kampen mod kommercielle kræfter og systeminteresser

Thomas Ploug
AI-forsker

Lidt forenklet kunne man sige, at den risikobaserede tilgang ikke sætter borgeren i fokus for reguleringen, men er drevet af at fremme AI-udvikling til samfundets bedste.

Den risikobaserede tilgang lægger op til, at man i forvaltningen af den foretager en afvejning af mange hensyn og interesser – beskyttelse af borgerne må afvejes mod både det privates og det offentlige systems interesser. Og i udgangspunktet er stort set al udvikling og brug af AI-systemer på borgeren legitim, for så vidt man blot sørger for at holde øje med risici.

Alternativet til en risikobaseret tilgang kunne være en rettighedsbaseret tilgang som i databeskyttelses­forordningen (GDPR).

Jeg tror, at den mest adækvate regulering af AI vil tage afsæt i et sæt af digitale rettigheder.

Det kunne være en ret til ikke at blive genstand for AI-profilering og prediktion, eller en ret til i videst mulige omfang at blive tilbudt et alternativ til AI-profilering og prediktion.

Det kunne også være en ret til at kontrollere alle personlige data, herunder både biometriske data, og data, der måtte bruges til træning af AI-systemer eller som AI-systemer bliver anvendt på. Det kunne også være en ret til effektivt at gøre indsigelse mod AI-profilering og prediktion (GDPR), der giver ret til vidtgående information om AI-systemers nøjagtighed og bias og så videre.

Det er klart, at der også vil være grænser for rækkevidden af sådanne rettigheder bestemt af hensyn til forskellige interesser, men afsættet er fundamentalt forskelligt fra en risikobaseret tilgang. Det enkelte menneske er sat i centrum.

Mindre paternalistisk tilgang
Der er for mig at se tre væsentlige grunde til at foretrække den rettighedsbaserede tilgang.

For det første, fordi den er mindre paternalistisk – den vil alt andet lige give borgerne en større grad af frihed i forhold til at blive genstand for AI-prediktion og profilering.

For det andet, fordi borgerne altid er den svage part i kampen mod kommercielle kræfter og systeminteresser.

For det tredje, fordi borgerne alt væsentligt har blik for samfundets interesser.

Når man styrker borgernes rettigheder til at kontrollere brugen af AI og data med videre, er det ikke på bekostning af samfundet.

De fleste borgerne udøver deres rettigheder med skyldig hensyntagen til fællesskabet samfundsinteresser, og så vil den fortsatte udvikling og brug af AI-systemer jo i øvrigt ofte være i borgernes egen interesse.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00