Debat

Forsker: AI-etiske udfordringer skal løses med afsæt i digitale menneskerettigheder

Dette er andet indlæg i en føljeton om kunstig intelligens skrevet af professor ved Aalborg Universitet, Thomas Ploug. Her skriver han om to mulige veje at gå med regulering og foreslår selv en tredje, menneskerettighedsbaseret tilgang.

Hvilken vej skal vi gå i reguleringen af kunstig intelligens? Det spørgsmål søger professor ved AAU, Thomas Ploug, at besvare i dette indlæg (billedet er taget ved den internationale AI-konference, World Artifical Intelligence Center (WAIC), der blev afholdt i Shanghai den 9. juli sidste år).
Hvilken vej skal vi gå i reguleringen af kunstig intelligens? Det spørgsmål søger professor ved AAU, Thomas Ploug, at besvare i dette indlæg (billedet er taget ved den internationale AI-konference, World Artifical Intelligence Center (WAIC), der blev afholdt i Shanghai den 9. juli sidste år).Foto: Aly Song/Reuters/Ritzau Scanpix
Thomas Ploug
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

I mit første indlæg argumenterede jeg for, hvorfor regulering af AI er nødvendigt. I dette indlæg vender jeg blikket mod, hvordan den regulering bør udformes.

En politisk regulering af kunstig intelligens (AI) kan have som mål at undgå det dystopiske scenario, at menneskeheden udryddes.

Den kan også være drevet af ønsket om løse aktuelle etiske problemer.

Hvilken vej skal man gå?

Dystopi-drevet regulering
Dystopi-drevet regulering er forbundet med store problemer.

Temadebat

I april kom EU-Kommissionen med et forslag til, hvordan kunstig intelligens kan reguleres på verdensplan.

Ifølge Kommissionen selv, er det første gang nogensinde, der bliver foreslået en retlig ramme for kunstig intelligens.

Reglerne skal nu forhandles på plads mellem Europa-Parlamentet, Kommissionen og medlemslandene. Når det er sket, begynder en implementeringsperiode, hvorefter reglerne vil være gældende i hele EU.

Lovprocessen rejser dette grundlæggende spørgsmål: Hvordan skal vi udnytte kunstig intelligens?

Her er panelet

  • Mikael Ekman, direktør for Politik og Strategi, Microsoft Danmark & Island
  • Natasha Friis Saxberg, direktør, IT-Branchen
  • Anders Kofod-Petersen, professor ved Norges Teknisk-Videnskabelige Universitet, Trondheim; afgående AI-forsker ved Alexandra Instituttet
  • Jesper Lund, formand, IT-Politisk Forening
  • Rikke Frank Jørgensen og Marya Akhtar, seniorforsker og specialkonsulent, Institut for Menneskerettigheder
  • Niels Bertelsen, formand, Prosa
  • Thomas Ploug, professor, Institut for Kommunikation og Psykologi, Aalborg Universitet
  • Karen Melchior (R), medlem af Europa-Parlamentet
  • Birgitte Arent Eiriksson, vicedirektør, Justitia
  • Rikke Hougaard  Zeberg, branchedirektør, DI Digital
  • Nanna Bonde Thylstrup, lektor med speciale i kommunikation og digitale medier, CBS
  • Christel Schaldemose (S), medlem af Europa-Parlamentet
  • Janus Sandsgaard, digitaliseringspolitisk fagchef, Dansk Erhverv

For det første er det langtfra klart, at politiske interventioner rettet mod blotte logiske mulige fremtider er politisk legitimt.

Det er således også logisk muligt, at verdensherredømmet overtages af nisser, men på det grundlag vil det næppe være politisk legitimt at afskaffe julen.

Der må gives evidens for scena­rier, der giver en kausal forklaring på, hvordan AI-udviklingen kan lede til menneskehedens udryddelse. Og der må være en vis konsensus blandt relevante forskere om disse scenarier.

Og selv hvis disse betingelser skulle være opfyldt, er det ikke givet, at vi skal gøre noget ved AI-dystopien (nu).

Menneske­hedens udryddelse er overdetermineret. Der er andre, konkurrerende dystopiske scenarier som for eksempel asteroide­nedslag, supervulkaner, atomkrig, multiresistente bakterier og klimakatastrofer, der kan hævdes at være mindst lige så sandsynlige og presserende.

For det andet er det ikke klart, hvad der politisk set skal gøres for at undgå det dystopiske scenario. Umiddelbart synes udsigten til menneskehedens udryddelse at kræve et generelt forbud mod udvikling og brug af AI.

Hvis et forbud er effektivt, vil det imidlertid også betyde tabet af teknologier, der kan løse globale sundhedsproblemer og klimaproblemer og bringe økonomisk vækst. Og måske er et forbud slet ikke nødvendigt – måske kan vi nøjes med at monitorere AI-udviklingen.

Rettigheder indebærer en demokrati­sering af beskyttelsen af enkeltindividet og det åbne samfund, og den demokratisering er måske i virkeligheden den bedste beskyttelse mod ethvert dystopisk AI-scenario

Thomas Ploug
Professor, Institut for Kommunikation og Psykologi, AAU

Problemet er, at vi ikke kan afgøre, om et politisk tiltag vil være effektivt og nødvendigt i forhold til at undgå menneskehedens udryddelse, og om der er proportionalitet mellem gavn og skade ved tiltaget

Problemet er ikke nyt. Vi har også mødt det under corona-pandemien, hvor det har været diskuteret, hvorvidt kravet om at bære mundbind opfylder disse betingelser.

Der er dog en væsentlig forskel. I tilfældet mundbind er det muligt at lave en løbende, evidensbaseret vurdering. Målet for reguleringen – begrænset smittespredning uden for store frihedstab og ubehag – er nemlig her og nu.

For det tredje er der ingen garanti for, at en dystopidrevet regulering vil adressere de aktuelle etiske udfordringer, som AI-teknologien rejser. Dystopi-drevet politisk regulering risikerer ikke blot at blokere for en generel positiv samfundsudvikling, den risikerer også at fejle i beskyttelsen af borgerne.

Aktualitets-drevet regulering
AI-teknologier giver reelle, etiske udfordringer. AI-udviklingen er baseret på personlige data, AI-forudsigelser er fejlbarlige og kan vanskeligt forklares, og AI-systemer kan føre til menneskeligt kompeten­ce­tab med reduceret kvalitet, utryghed og mistillid til følge.

At lave politiske tiltag rettet mod at imødegå helt åbenlyse og aktuelle etiske udfordringer er imidlertid ikke uden problemer.

For det første synes der at være en reel risiko for overregulering.

Krav til transparens og forklarlighed af AI-forudsigelser kan være så stærke, at det kan føre til, at man opgiver udvikling af de bedste typer AI, fordi de også er de sværeste at forklare – eller helt stopper udvikling af AI. Og det vil være uden god grund.

Vi har andre teknologier, der heller ikke fuldt ud kan forklares. Det gælder for eksempel medicinske præparater, hvor den præcise virkningsmekanisme i nogle tilfælde ikke kan forklares. Vi har som samfund løst problemet ved at stille krav til omfattende testning, der sikrer beskyttelsen af patienterne mod uacceptabel skade.

Selv om man kan have sympati for intentionen bag forbud mod AI-baseret ansigtsgenkendelse, forekommer det at være ’symptombehandling’

Thomas Ploug
Professor, Institut for Kommunikation og Psykologi, AAU

Der er ikke grund til at tro, at vi ikke på samme måde kan beskytte samfundet og borgere gennem en regulering, der muliggør udvikling og brug af AI.

For det andet er der en risiko for, at regulering af AI bliver for paternalistisk.

Den kan undertrykke borgernes handlemuligheder, hvis den ikke er begrundet i forhold, der giver den enkelte borger tilstrækkelige grunde til at acceptere reguleringen.

En regulering, der for eksempel forbyder brug af AI til bestemte typer af meget person-specifikke services – for eksempel person-rettede, partipolitiske reklamer – vil vel vanskeligt kunne opfylde dette begrundelseskrav.

Ganske vist indebærer meget person-specifik, politisk kommunikation en risiko for manipulation, men jeg kan som borger have en stærk og demokratisk interesse i at kunne kæde politiske synspunkter sammen med politiske partier og lignende.

For det tredje er der en risiko for, at reguleringen bliver tilfældig og ineffektiv.

AI-regulering af aktuelle, etiske problemer skal selvfølgelig også være effektiv, nødvendig og proportional.

Et generelt forbud mod AI-baseret ansigtsgenkendelse bliver næppe i sig selv et effektivt værn mod overvågningsstaten – ligesom det vel næppe heller opfylder begrundelseskravet.

Selv om man kan have sympati for intentionen bag forbud mod AI-baseret ansigtsgenkendelse, forekommer det at være ’symptombehandling’.

Hvis man vil løse aktuelle AI-etiske udfordringer – og derigennem også beskytte en bestemt samfundsmodel – må man for mig at se gå mere fundamentalt til værks.

Digitale menneskerettigheder
Jeg er overbevist om, at de aktuelle AI-etiske udfordringer løses bedst ved, at reguleringen af AI tager afsæt i grundlæggende, digitale menneskerettigheder.

For eksempel retten til at kontrollere adgangen til de data, AI anvender. Retten til ikke at blive underlagt AI-beslutninger. Retten til på informeret grundlag at anfægte AI-beslutninger og så videre.

Der er brug for en fortsat overvejelse af, hvordan disse og andre rettigheder kan og skal defineres i relation til brugen af AI.

Rettigheder indebærer en demokrati­sering af beskyttelsen af enkeltindividet og det åbne samfund, og den demokratisering er måske i virkeligheden den bedste beskyttelse mod ethvert dystopisk AI-scenario.

Dette er andet indlæg i en føljeton bestående af tre indlæg om AI-regulering skrevet af professor Thomas Ploug. I indlæg 3 analyseres EU-kommissionens forordningsforslag til en særlig retlig ramme i lyset af de foregående indlæg.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00