Debat

Radikale Venstre: Kunstig Intelligens indtog på universiteterne er ikke bekymrende

Udviklingen i kunstig intelligens som ChatGPT er imponerende. Universiteterne bør derfor omfavne den nye teknologi, selvom den stiller nye krav til både studerende og forskere, skriver ph.d. Stinus Lindgreen fra Radikale Venstre.

Vi bør udvikle et etisk kodeks for, hvordan man anvender sprogmodeller som ChatGPT på universiteterne, så vi får det største udbytte af mulighederne uden at miste faglighed og kritisk tænkning, skriver Stinus Lindgreen (RV).
Vi bør udvikle et etisk kodeks for, hvordan man anvender sprogmodeller som ChatGPT på universiteterne, så vi får det største udbytte af mulighederne uden at miste faglighed og kritisk tænkning, skriver Stinus Lindgreen (RV).Foto: Emil Nicolai Helms/Ritzau Scanpix
Stinus Lindgreen
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Kunstig intelligens er pludselig blevet allemandseje.

Fra at være noget, man kun talte om i forskermiljøer eller gysede over i Terminator-filmene, er det i dag en teknologi, alle taler om og har adgang til. Med udviklingen af ChatGPT og efterfølgende sprogmodeller er der taget et enormt spring fremad, der viser, hvad man kan præstere med den nyeste teknologiske udvikling på området. Og det er imponerende.

Kunstig intelligens som teknologi er ikke som sådan noget nyt – vi har bare kaldt det noget andet. Samtidig bliver debatten til tider forvirret af, at termen bruges om alle mulige forskellige ting, og at kunstig intelligens tilskrives nogle egenskaber, der ikke findes i den virkelige verden (endnu).

Temadebat

Hvad stiller vores universiteter og forskning op med kunstig intelligens?
Kunstigt intelligente chatbots er efterhånden blevet en del af hverdagen de danske campusser. 

Med en enkelt kommando kan forskere og studerende hurtigt få svar på alverdens spørgsmål. Derfor spørger Altinget Forskning nu: Hvordan bør universiteter og forskere forholde sig til kunstig intelligens?

Se oplægget til debatten og panelet lige her.

Om Altingets temadebatter
Alle indlæg er alene udtryk for skribenternes egen holdning.

Altinget bringer kun debatindlæg, som udelukkende er skrevet til Altinget.

Har du lyst til at bidrage til debatten, er du velkommen til at skrive til [email protected] for at høre om mulighederne.

Man har i årtier arbejdet med såkaldt neurale netværk, man har brugt statistisk regressionsanalyse til at undersøge sammenhænge i data, og man har udviklet "machine learning"–algoritmer til at finde mønstre i store datasæt, som vi mennesker ikke kan overskue. Er det så kunstig intelligens?

Udviklingen er gået rigtig stærkt det seneste års tid, og særligt indenfor sprogmodeller er der virkelig sket fremskridt. Algoritmer er i stand til at analysere enorme datasæt af høj kompleksitet og sammensætte tekster, der – i hvert fald på overfladen – ligner noget, der er forfattet af et tænkende individ. Men det er de ikke, for det er alene en syntese sammensat af eksisterende tekster.

Naivt at forbyde brugen

Disse teknologier har gjort deres indtog på universiteter verden over. Så er det en mulighed eller en udfordring? Skal det forbydes eller omfavnes?

Jeg mener, at det er naivt at tro, at man kan forbyde brugen af sprogmodeller. I stedet må vi hellere forholde sig til, hvordan teknologien kan anvendes som et brugbart værktøj – både på universitetet og i samfundet generelt. Vi skal jo huske, at der til alle tider har været teknologiske udviklinger, der har udfordret og udviklet forskningen. Trykpressen. Introduktionen af computere. Udviklingen af molekylære teknologier.

I sidste ende har det altid betydet, at der er kommet et nyt værktøj, der har åbnet nye muligheder og perspektiver. Det samme gælder ChatGPT og lignende teknologier. Universiteterne bør omfavne det, men det stiller nogle nye krav til både studerende, undervisere og forskere.

ChatGPT kan generere tekster på baggrund af enorme tekstmængder, lede efter komplekse sammenhænge og gøre det ekstremt hurtigt. Men værktøjet laver også oplagte fejl, misforstår kausale sammenhænge, skriver volapyk, og er i det hele taget ikke – af oplagte årsager – på det vidensniveau, som overfladen kan indikere.

Du kan måske få computeren til at formulere en tekst for dig, men ikke få den til at forstå den for dig.

Stinus Lindgreen
Forsknings- og digitaliseringsordfører (RV)

Ikke bekymrende

Derfor kan fagfolk stadig se, om der er egentlig tankevirksomhed bag en tekst, og om formuleringerne giver mening og byder på nye indsigter udover det mest banale.

For de studerende kan ChatGPT være et støtteværktøj som så meget andet. Men opgaven med at syntetisere viden og se nye sammenhænge ligger fortsat hos dem, ligesom en autogenereret tekst jo ikke fjerner kravet om at kunne forklare tingene med egne ord ved en mundtlig eksamen eller bedømme andres faglige bidrag. Du kan måske få computeren til at formulere en tekst for dig, men ikke få den til at forstå den for dig.

Jeg er derfor ikke så bekymret over udviklingen på dette område, men det stiller nogle nye både faglige og etiske krav til universiteterne. Vi bør derfor udvikle et etisk kodeks for, hvordan man anvender denne teknologi på universiteterne, så vi får det største udbytte af mulighederne uden at miste faglighed og kritisk tænkning. 

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Stinus Lindgreen

MF (R), regionsrådsmedlem (R), Region Hovedstaden
ph.d. i bioinformatik (Københavns Uni. 2010)

0:000:00