Debat

Forsker om AI: Vi er så nærsynede, at vi ikke ser den reelle fare

DEBAT: De virkelige udfordringer med kunstig intelligens ligger ikke i de konkrete etiske dilemmaer ved menneskeskabt kapacitet, men i det større samfundsmæssige og systemiske skred, AI kan medføre, skriver juraforsker Hin-Yan Liu.

Debatten om kunstig intelligens har en tendens til at omhandle, hvordan man håndterer sansende kunstige væsener i social, juridisk og politisk sammenhæng. Den virkelige udfordring er langt større og skal gribes an på systemisk niveau, skriver forsker ved KU Hin-Yan Liu.
Debatten om kunstig intelligens har en tendens til at omhandle, hvordan man håndterer sansende kunstige væsener i social, juridisk og politisk sammenhæng. Den virkelige udfordring er langt større og skal gribes an på systemisk niveau, skriver forsker ved KU Hin-Yan Liu.
Julie Arnfred Bojesen
GDPRDeleted
Vis mere
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Af Hin-Yan Liu
Forsker på Det Juridiske Fakultet, Københavns Universitet

Midt i den massive medieomtale af kunstig intelligens er det vigtigt at træde et skridt tilbage og gøre status over, hvilke reelle udfordringer der i virkeligheden er, og om det rent faktisk er kunstig intelligens, der ligger til grund for dem.

Hermed mener jeg, at debattens rammer er sat med fokus på intelligens (og dermed forbundne egenskaber som kapacitet, tilpasningsevne og opfindsomhed) og på ikkenaturlig (læs ikkemenneskelig) oprindelse.

Således har vi tendens til at forbinde kunstig intelligens med en fabrikeret enhed, der besidder et menneskelignende intelligensniveau, hvilket naturligt nok fører over i spørgsmålet om, hvordan man giver plads til sansende kunstige væsener i social, juridisk og politisk sammenhæng.

Fakta
Deltag i debatten!
Send dit indlæg til [email protected]

Med et for nærsynet fokus på kunstig intelligens ville man komme til at overse velkendte cyklusser inden for teknologiske fremskridt, samfundsmæssige opbrud og erfaringer fra tidligere industrielle revolutioner.

Hin-Yan Liu
Forsker på Det Juridiske Fakultet, KU

Et bredere perspektiv
Efter min mening er denne ramme for snæver, da mange af de virkelige udfordringer i forbindelse med kunstig intelligens ikke først og fremmest har noget at gøre med dét at være skabt eller dét at være intelligent.

Vi kan se, hvorfor dette er vigtigt, hvis vi forestiller os, at vi kunne skabe nogle juridiske mekanismer og sociale normer, ud fra hvilke sådanne kunstigt intelligente væsener kunne integreres i vores samfund på en politisk spiselig måde.

For at beskytte vores øjne mod de nyeste teknologiers blændværk bør vi ikke reagere på baggrund af de egenskaber og fordele, som deres tilhængere fremhæver, men i stedet se på, hvilken virkning det vil have på samfundet generelt at integrere disse.

Hin-Yan Liu
Forsker på Det Juridiske Fakultet, KU

Det ville løse de problemer, der ligger i rammesætningen af kunstig intelligens. Og alligevel ville disse teknologiers egentlige, systemiske konsekvenser ikke være afklaret, endsige afbødet.

I stedet bør vi anskue de underliggende teknologier, som karakteriseres som kunstig intelligens, gennem forskellige spektre.

Den reelle trussel
Tænk engang på den teknologiske afskaffelse af arbejdet, der ligger og lurer forude. Mens det er muligt, at avancerede algoritmer vil blive i stand til at udføre mange arbejdsopgaver mere konsekvent og efter en højere standard end de mennesker, der i dag er ansat til at udføre dem, så ligger det samfundsmæssige chok ikke i erstatningen af enkelte menneskelige fagfolk, men snarere i den systemiske udryddelse af hele erhverv eller fag.

Så mens selvkørende biler rejser det klassiske etiske ’trolley-dilemma’, der tvinger os til at beslutte, om det er den gamle dame eller det lille barn, der skal køres over i et uundgåeligt ulykkesscenarie, så vil det politiske og sociale dilemma, som udsigten til selvkørende biler medfører, formentlig blandt andet være massearbejdsløshed blandt erhvervschauffører.

De demografiske konsekvenser af masseerstatning af erhvervschauffører med selvkørende biler ville sandsynligvis føre til en del samfundsmæssige uroligheder.

Med et for nærsynet fokus på kunstig intelligens ville man komme til at overse velkendte cyklusser inden for teknologiske fremskridt, samfundsmæssige opbrud og erfaringer fra tidligere industrielle revolutioner.

Det er vigtigt at se på systemerne
Et andet eksempel er det udskældte ’sociale pointsystem’, som bruges i dele af Kina i øjeblikket, og som forventes at være fuldt integreret inden 2020.

Sådan et system, som akkumulerer enorme mængder data om en persons adfærd med henblik på at nå frem til en bestemt pointsum, og så sammenkører behandlingen af personen på tværs af alle aspekter af dennes liv ud fra den pointsum, kan ikke engang betragtes som kunstig intelligens.

Det eneste, et sådant system gør, er at forbinde data med konsekvenser gennem en behandlingsalgoritme – her er der ikke brug for intelligens.

Men mens det sociale pointsystem rummer mange af de farer, vi er blevet advaret om i dystopiske fortællinger, ville fokus på kunstig intelligens heller ikke her hverken gøre det nemmere at forstå de problemer, som sådan et system medfører, eller pege på løsninger, der ville være i stand til at imødegå en sådan trussel.

En stor del af et sådant systems undertrykkende karakter skal ikke findes i dets påståede intelligens, men snarere i, hvor omfattende og konsekvent det er.

I den forstand får vores søgen efter intelligens os til at lede efter en enhed, der har kompetence til at udføre en opgave: I stedet burde vi søge efter integrerede systemer og digitale netværk og overveje de udfordringer, de medfører.

Når beslutningskraft uddelegeres
En stor del af bekymringerne i forhold til kunstig intelligens går på uddelegeringen af menneskers beslutninger til maskiner og også, i hvert fald i den lovgivningsmæssige kontekst, på, hvordan man sikrer, at sådanne beslutningsprocesser sker under menneskers opsyn, og om fornødent med menneskers indgriben.

I en sag i USA for nylig, hvor en algoritme var med til at idømme en mand seks års fængselsstraf, fokuserede appellen således på retssikkerhedsgaranti – på tilgængelighed og gennemsigtighed af de grunde, som påvirkede beslutningsprocessen. I afvisningen af appellen lagde højesteret i Wisconsin blandt andet til grund, at algoritmens bestemmelse af fængselsstraffen ikke var det eneste, der førte til dommerens afgørelse.

Igen er spørgsmålet om algoritmens 'intelligens' irrelevant i forhold til, hvorvidt den udgør en udfordring for retssystemet. Derimod kan der i høj grad stilles spørgsmål ved den systemiske bias i de datasæt, som algoritmerne benytter, og de uforudsigelige konklusioner, algoritmerne udleder fra disse datasæt.

Afgørende ringe i vandet
Sagen er i virkeligheden, at når vi diskuterer maskiners beslutningstagen, er det underforstået, at vi taler om kunstig intelligens, og derfor er det det, vi fokuserer på.

Men tag eksemplet ovenfor med strafferetlige domme, og det er indlysende, at det egentlige problem ikke ligger i beslutningsprocessen selv, men i de konsekvenser, der følger af den.

Forestil dig et øjeblik, at den sagsøgtes indsigelser er løst – at retssikkerheden ikke udgør et problem. Hvad kan konsekvenserne være i et sådant scenarie?

Man kan i hvert fald nævne tre. Der vil ske en fastlåsning af nuværende værdier – hvad der er rigtigt i dag, vil blive ved med at være det i fremtiden. Mulighederne for forbedring, eller blot variation, svinder ind, efterhånden som algoritmerne kværner beslutninger ud baseret på vores nuværende værdikonstellationer.

Dertil knytter sig en rent praktisk bekymring, fordi de fejl, der i sker nutidens samfund på grund af kønsmæssige, racemæssige og andre fordomme, risler ned gennem rammerne for beslutningstagningen.

Men den allerfarligste konsekvens er måske vores manglende evne til at reagere på disse udfordringer, hvis vi ikke begynder at være opmærksomme nu.

Ved at fokusere snævert på kunstig intelligens risikerer vi kun at koncentrere os om beslutningsprocessen og tilpasse den de eksisterende juridiske forpligtelser og således overse de større udfordringer, som disse teknologier medfører.

Kort sagt vinder vi den juridiske kamp om transparente og tilgængelige maskinelle beslutningsprocesser, men vi står alligevel til at tabe kampen mod den virkning, sådanne teknologier vil have på tværs af hele samfundet.

Vi må være forberedt på virkningerne
Collingridge-dilemmaet beskriver et problem, som samtlige samfund i øjeblikket står over for: Før en teknologi bliver udviklet og udbredt, er der et problem med information om dens virkninger, men efter en teknologi er blevet udbredt, er der et magtproblem, der gør det vanskeligt at styre eller forandre denne teknologi.

For at forhindre samfundet i at gå i søvne ind i irreversible situationer, hvor avancerede algoritmer burer menneskelig frihed og kapacitet inde, bør vi bestræbe os på at konfrontere dette informationsproblem først – om ikke for andet, så fordi det ikke kan løses efterfølgende.

For at beskytte vores øjne mod de nyeste teknologiers blændværk, bør vi ikke reagere på baggrund af de egenskaber og fordele, som deres tilhængere fremhæver, men i stedet se på, hvilken virkning det vil have på samfundet generelt at integrere disse.

På den måde kan vi også søge indflydelse på udbredelsen og penetrationen af applikationer baseret på kunstig intelligens og kun tillade deres brug efter reflekteret debat og eftertanke.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00