Kommentar af 
Lisbeth Knudsen

Kunstig intelligens er vores Oppenheimer-moment

Kan vi bruge AI til at udvikle vores demokrati, eller kommer teknologiudviklingen til at skubbe os endnu længere ad den forkerte vej? Hvordan undgår vi, at AI bliver et monster, ligesom globaliseringen blev det? To centrale spørgsmål til politikerne.

Har vi nået en farlig teknologisk grænse med udviklingen af kunstig intelligens (AI), spørger Lisbeth Knudsen i denne kommentar.
Har vi nået en farlig teknologisk grænse med udviklingen af kunstig intelligens (AI), spørger Lisbeth Knudsen i denne kommentar.Foto: Amy Katz/Zuma/Ritzau Scanpix
Lisbeth Knudsen
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Har vi nået en farlig teknologisk grænse med udviklingen af kunstig intelligens (AI), hvor vi bør stoppe op og tænke os godt om, før udviklingen kommer ud af kontrol, sådan som også topledere fra techbranchen har givet udtryk for? Har vi nået et ”Oppenheimermoment” med alarmerende henvisning til den aktuelle film om manden, der udviklede verdens første atombombe. Har vi styr på, hvad vi har gang i som samfund med den næste generation af AI-teknologier?

Hver eneste uge bringer spændende konferencer om kunstig intelligens for tiden og alle mulige vinkler på den rivende udvikling. Forleden holdt vi i regi af Algoritmer, Data og Demokrati-projektet en rent ud sagt unik konference i samarbejde med Digital Democracy Centre på SDU og Akademiet for de Tekniske Videnskaber.

Formålet med mødet var at bringe forskere inden for teknologi og data science sammen med forskere og aktører inden for samfundsvidenskab og demokrati og give dem opgaven at diskutere, hvordan teknologierne vil påvirke samfundet og demokratiet i de kommende år, og hvordan vi eventuelt kan bruge kunstig intelligens konstruktivt til at udvikle demokratiet.

Kan vi bruge AI til at udvikle demokratiet eller er realiteterne at kunstig intelligens vil skubbe til udviklingen i den forkerte retning? Nogle af konklusionerne var meget klare fra det møde.

Kan vi bruge AI til at udvikle demokratiet eller er realiteterne at kunstig intelligens vil skubbe til udviklingen i den forkerte retning?

Lisbeth Knudsen
Strategisk direktør, Mandag Morgen og Altinget

  1. Vi må sikre os at staten og demokratisk valgte regeringer er i kontrol med udviklingen. At det ikke går som med internettet, de store datalagre og udbredelsen af de sociale platforme, at det er nogle få globale techgiganter, der kommer til at sidde på ejerskabet af de platforme, der bliver styrende for vores brug af generativ AI. Som tendensen er nu, er det præcis, hvad der sker, når Microsoft, IBM, Google, Meta og OpenAI styrer udviklingen af de avancerede sprogmodeller, som også mange danskere nu har stiftet bekendtskab med og bruger. Så kan vi ligesom med de sociale platforme komme rendende bagefter med regulering og lovgivning, men det er for sent at skabe en reel konkurrent til de globale tilbud og services, som vi har vænnet os til.
  2. Der er et klart behov for, at vi sætter turbo på udviklingen af en national, dansk sprogmodel på samme måde, som Sverige og Norge har gjort det for at sikre vores eget sprog og kultur en fremtid, og ikke alene satser på en europæisk sprogmodel. Hvorfor? Fordi de nuværende redskaber som ChatGPT er trænet på amerikanske værdier og samfundsindretning og på amerikansk kultur.
    Der synes at være en fælles erkendelse af, at løbet er kørt i forhold til at skabe europæiske konkurrenter til de store sociale platforme og en holdning til, at vi nu skal kende vores besøgelsestid og massivt understøtte de danske kræfter, der arbejder med sprogmodeller.
  3. Der er brug for en kæmpe oplysningsindsats for at kompetenceudvikle os alle sammen til at forstå, hvad kunstig intelligens og værktøjer som ChatGPT er nyttige til, og hvor den kunstige intelligens bliver kunstig i ordets værste betydning og forfalder til at hallucinere og opfinde oplysninger ud af fri fantasi, når den ikke kan finde relevant information i sine enorme datalagre.
    Der er i den grad brug for at uddanne til kritisk holdning til resultaterne, når man er kommet sig over den første benovelse over det, som AI platformene kan frembringe på ingen tid.

 

Demokratiet er på tilbagetog over hele verden. Mange har givet internettet og de sociale medier skylden for denne udvikling, hvorimod andre har hyldet internettet som et værktøj til større frihed.

  • Det er internettets og de sociale platformes grundlæggende paradokser er:
  • De undergraver demokratiet, og de udvider demokratiet.
  • De er autokraternes redskaber, og de er aktivisternes redskaber.
  • De får folk til at adlyde, og de får dem til at protestere.
  • De giver de marginaliserede en stemme, og de giver et frit spillerum til fanatikere og ekstremister.

På konferencen forleden brugte professor Kaj Grønbæk, leder af institut for datalogi på Aarhus Universitet, et citat fra den franske filosof Paul Virilio som i 1999 skrev:

”Når du opfinder skibet, opfinder du også skibsvraget. Når du opfinder flyet, opfinder du også flystyrtet. Og når du opfinder elektricitet, opfinder du også elektrisk stød. Hver teknologi bærer sin egen negativitet i sig, som er opfundet samtidig med de teknologiske fremskridt.”

Atomfysikken, som "the Oppenheimer moment" handler om, har det samme dilemma i sig. Det dilemma rummer også AI, som kan vise sig at være en gave til menneskeheden eller en katastrofe. Det afgørende er, hvilke rammer vi sætter omkring den.

Vi må tænke meget over, hvem der kommer til at sidde ned nøglerne til udviklingen af AI og de toneangivende løsninger, som kommer til at dominere markedet. Vi må sørge for at skabe de reguleringsmæssige rammer omkring brugen af AI og generativ AI, så det foregår på baggrund af et sæt ansvarlige principper og underlagt demokratisk kontrol.

AI teknologi er allerede eller bliver meget snart en så essentiel del af vores samfundsfunktioner og funktioner i virksomhederne, at vi må være i kontrol med anvendelsen, gennemsigtigheden omkring anvendelsen og beskyttelsen af både borgernes rettigheder og ophavsrettighederne for dem, der leverer indholdet til at træne de generative AI-løsninger.

Vi må tænke meget over, hvem der kommer til at sidde ned nøglerne til udviklingen af AI og de toneangivende løsninger, som kommer til at dominere markedet.

Lisbeth Knudsen
Strategisk direktør, Mandag Morgen,og Altinget

Jeg vil gerne tale om de syv vigtige T`er:

TILLID: Fortællingen om AI er ved at bygge op til en polarisering på samme måde som begrebet globalisering delte os mellem dem, der så mulighederne og det internationale og grænseoverskridende som et spændende potentiale og dem, der frygtede at tabe det nationale og det trygge , det forståelige og det nære.

AI har alene i selve ordet kunstig intelligens en indbygget skrækversion. Noget kunstigt, som er ude af vores kontrol, og som kan overtage vores job. Og samtidig rummer det et håb om, at vi kan finde løsninger på vilde problemer gemt i de enorme mængder af data, som kan processes med lynets hast og helt uden for den menneskelige kapacitet og evne.

Vi kan allerede nu se for os betydelige landvindinger på sundhedsområdet. Men også andre centrale funktioner i vores samfund kan nyde godt af beslutningsunderstøttende hjælp fra AI-løsninger.

Uden tillid til at AI-revolutionen vil blive gennemført på en ansvarlig måde, hvor vi som mennesker har kontrol med, hvad der sker, og hvad vores data bruges til, så får vi en polarisering, utryghed og sociale konflikter præcis som med globaliseringen. Frygt for tab af job og frygt for det abstrakte og uforståelige.

TRANSPARENS: Beslutninger om AI skal gennemføres med åbenhed og ikke på samme måde, som vi har oplevet håndteringen af algoritmer på vores store platforme, hvor de i høj grad er en ”black box”.

Vi må have en gennemsigtighed i forhold til, hvornår beslutninger tages af et menneske eller en maskine og hvilket grundlag af data, maskinen er trænet med. Herunder hvilke bias, der kan risikere at være.

Hvis vi tager eksemplet fra den norske udvikling af NorGPT, så stilles den norske sprogmodel til rådighed for det norske samfund. Det er et fælles fundament, som andre udbydere kan bygge deres tjenester på. Det kan være digitale tjenester, sundhedsydelser og meget mere. Det bliver dermed en norsk infrastruktur, der holder det norske sprog i live og som har i sig norske værdier og norsk kultur.

I dag styres de store, internationale sprogmodeller af en håndfuld virksomheder. De bestemmer, hvordan sprogmodellerne skal udformes, og hvilke sprog, der skal inkluderes og udelukkes. Hvis sprogmodeller bliver fremtidens standard, får disse virksomheder enorm magt i vores digitale verden. 

TRYGHED: Der må være en offentlig kontrol og regulering af AI, sådan som der også lægges op til i EU-regi. Vi skal kunne forstå og gennemskue, hvad der sker med vores data, og vi skal vide, hvad der registreres på os. Der skal være nogle fælles standarder, som sætter rammerne for udviklingen, ligesom vi kender det fra GDPR.

TILGANG: At skabe de ansvarlige rammer omkring AI starter i designfasen. Det starter med den tilgang, man har allerede på udvikler-niveau. Ansvarlighed i designet og datasikkerhed i designet.

Vi må drøfte hvilken tilgang vi vil have til AI. Skal AI-anvendelse varedeklareres, så jeg ved, at denne tekst eller en tilhørende video er lavet med brug af generativ AI eller ikke? Hvordan skal de, der leverer indhold til at træne AI-platformene, have betaling for deres ophavsret? For sprogmodellerne opfinder jo ikke sig selv. De skal have adgang til enorme mængder af materiale. Den vinkel er på nuværende tidspunkt et meget underbelyst emne.

TROVÆRDIGHED: Det bliver helt afgørende, at jeg som bruger af generativ AI har mulighed for at se, fra hvilke kilder bestemte oplysninger stammer, og dermed også tildeles en mulighed for at bedømme oplysningernes troværdighed og hvilke bias informationerne, som jeg modtager, kunne indeholde.

Bias indeholdt i sprogmodellerne og manipulationer i anvendelsen af generativ AI til både tekst, billeder og video er et stort faremoment. En risiko for at vi oversvømmes af masser af falske nyheder og informationer, som vi ikke har en chance for at sortere i.

Jo mere de nye generative AI redskaber tillader ikke bare at løse overskueligheden ved store mængder af informationer, billeder og videoer, jo mere kommer der også redskaber til avancerede manipulationer med virkeligheden. Vi får et kæmpe behov for at kunne verificere og efterprøve autenticiteten af indhold.

TILGÆNGELIGHED: Lige nu har vi måske 20 procent af befolkningen, som føler sig hægtet af den digitale udvikling. Hvordan kan vi bruge AI til at hjælpe de mennesker i stedet for, at det bliver endnu en uoverkommelig trussel i deres hverdag? Hvordan kan vi anvende teknologierne til at inkludere i stedet for at ekskludere?

Udviklingen af teknologierne er 200 kilometer foran reguleringen og vores evner til at se konsekvensen af de nye tiltag.

Lisbeth Knudsen
Strategisk direktør, Mandag Morgen og Altinget

Kunne vi etablere særlige projekter med henblik på at udvikle vores demokrati og borgerdeltagelse med de nye teknologier, som kunne engagere flere i samfundsudviklingen?

TID: EU har sat sig i spidsen for udformningen af europæiske normer for ansvarlig teknologi. Og det er godt.

Problemet er, at udviklingen af teknologierne er 200 kilometer foran reguleringen og vores evner til at se konsekvensen af de nye tiltag. En ny AI-lovregulering er på vej, men allerede udfordret af, hvad teknologierne formår. Vi har brug for, at politikerne både herhjemme og i EU kommer langt mere ind i substansen af viden om kunstig intelligens og de dilemmaer, som kommer til at møde os lige om lidt. I vores Oppenheimermoment.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Lisbeth Knudsen

Strategidirektør, Altinget og Mandag Morgen, formand, Dansk Selskab for Virksomhedsledelse, Odense Symfoniorkester og Rønnow, Leth og Gori Arkitekter, Foreningen TjekDet og Demokratikommissionen, bestyrelsesleder, Niras
journalist (DJH 1975)

Kaj Grønbæk

Institutleder, Professor, Institut for Datalogi, Aarhus Universitet, særlig videnskabelig rådgiver, Alexandra Instituttet, formand, ATV's Digitale Vismandsråd
cand.scient. i datalogi og matematik (Aarhus Uni. 1988), ph.d. (1991)

0:000:00