Bliv abonnent
Annonce
Kronik af 
Thomas Troels Hildebrandt

Professor: AI-taskforce bør stå imod hypen og vælge bæredygtige løsninger fremfor de nyeste AI-værktøjer

Kunstig intelligens, og mere generelt digitalisering, er en helt naturlig værktøjskasse at gribe ned i, når mere skal gøres med færre ressourcer, skriver Thomas Troels Hildebrandt.
Kunstig intelligens, og mere generelt digitalisering, er en helt naturlig værktøjskasse at gribe ned i, når mere skal gøres med færre ressourcer, skriver Thomas Troels Hildebrandt.Foto: Mads Claus Rasmussen/Ritzau Scanpix
11. november 2024 kl. 05.00

Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Med udsigt til både mangel på arbejdskraft og store miljømæssige udfordringer er det bydende nødvendigt, at vi forandrer den måde, vi arbejder på såvel i den offentlige sektor som i de private virksomheder.

Kunstig intelligens, og mere generelt digitalisering, er en helt naturlig værktøjskasse at gribe ned i, når mere skal gøres med færre ressourcer.

Men for at skabe den ønskede værdi og forandring er det imidlertid meget vigtigt, at AI-taskforcen ikke fokuserer blindt på det nyeste værktøj i AI-kassen, men derimod står imod presset og hypen om sprogmodeller og generativ AI.

Udfordringer ved sprogmodeller

ChatGPT tog verden med storm for to år siden. Teknologien er utrolig nem at gå til, og man kan i naturligt sprog spørge computeren, om hvad som helst og få detaljerede svar.

Temadebat

Hvordan skal kunstig intelligens udbredes i det offentlige?

En ny AI-taskforce skal udbrede kunstig intelligens i det offentlige Danmark.

Altinget Digital sætter taskforcens opgave til debat og spørger, hvor og hvordan det gøres bedst – og er det helt uden faldgruber? 

Find hele debatpanelet her.

Vil du deltage i debatten, kan du skrive til debatredaktør Lasse Sjøbeck Jørgensen.

Mange virksomheder og offentlige myndigheder har sendt deres medarbejdere på ”prompt engineering”-kurser, og flere er gået i gang med at lave chatbots, der kombinerer en sprogmodel med en søgemaskine, der kan søge i interne dokumenter, såkaldt Retrieval Augmented Generation (RAG).

Vi har sågar fået de første tre robotter, der kan svare på juridiske spørgsmål på dansk.

Håbet er, at sprogmodellerne kan gøre det meget mere effektivt at finde viden og svare på spørgsmål i de store mængder af vejledninger og lovgivning.

Det er dog imidlertid ved at gå op for mange, at sprogmodellerne ikke er helt så lige til at bruge, som man umiddelbart skulle tro. Modellernes opbygning gør, at de er notorisk fejlbehæftede, og det er tilmed umuligt at forudsige, hvornår de laver fejl.

Trænet på data af tvivlsom oprindelse

Hvis man gentager det samme spørgsmål, kan modellen svare rigtigt første gang og forkert næste gang.

Det umuliggør, at man kan bruge test til at udtale sig om modellens korrekthed. At modellen gerne giver en forklaring på, hvordan den er nået frem til svaret, som ikke svarer til, hvordan den rent faktisk fandt svaret – og at denne forklaring også vil skifte fra gang til gang – burde også udelukke, at de umiddelbart kan bruges til at fuldautomatisere interaktionen mellem borgere og myndigheder.

Læs også

Det betyder også, at de selv til internt brug skal bruges med stor varsomhed af sagsbehandlere.

Dertil kommer, at træningen kræver store mængder energi og rent drikkevand til køling af computerne, og at modellerne også bruger langt mere energi på at svare på et spørgsmål end et almindeligt opslag i en database.

En model med flere milliarder parametre skal bruge tilsvarende antal operationer for hvert ord den skriver. Det virker mildest talt ikke bæredygtigt eller hensigtsmæssigt i lyset af de truende miljømæssige udfordringer.

Endelig er flere af de store modeller trænet på data af tvivlsom oprindelse, som leverandørerne ikke vil eller kan deklarere præcist, hvor kommer fra, og alene af den grund bliver de formentlig ulovlige at benytte, når den nye AI-forordning træder rigtig i kraft.

Det er ved at gå op for mange, at sprogmodellerne ikke er helt så lige til at bruge, som man umiddelbart skulle tro.

Thomas Troels Hildebrandt
Professor, Datalogisk Institut, Københavns Universitet

Muligheder for værdi

Men heldigvis er der mange muligheder for at skabe værdi nu og her ved at åbne hele den digitale værktøjskasse og tage andre og mere gennemskuelige og bæredygtige typer af kunstig intelligens i brug – i samspil med andre teknologier og metoder til digitalisering og analyse af arbejdsgange.

Kombinationen af mange forskellige teknologier til automatisering kaldes hyper-automation i konsulenthuset Gartners top ti over teknologitrends for 2023. I nogle tilfælde kan man endda bruge nogle af de andre værktøjer til at indhegne de upålidelige generative modeller, så vi kan bruge dem mere sikkert.

Det bliver rigtig interessant, hvis taskforcen også tager et blik på de ti strategiske teknologiske trends, som Gartner nævner i sin nyeste oversigt for 2024. Seks ud af de ti trends falder under det tema, der poetisk er kaldt ”The Rise of the Builders.”

Dette tema handler kort sagt om, at fageksperterne, det vil sige, sagsbehandlerne i myndighederne og de private virksomheder selv kan tage ejerskab for at bygge og løbende tilpasse digitaliseringen af deres arbejdsgange.

Læs også

Det gøres ved hjælp af såkaldte bruger-udviklingsplatforme og no-code værktøjer, som også var en del af hyper-automation trenden. De øvrige trends handler om at have fokus på bæredygtighed, værdiskabelse, risiko- og sikkerhedshåndtering.

I modsætning til den energikrævende generative AI, hvor der er behov for risikovillighed og problemer med at give værdi.

To scenarier

Den gode nyhed er, at sådanne platforme og teknologier ikke er fugle på taget ligesom den generative AI. Der findes endda platforme, som bygger på danskudviklede teknologier, der i al ubeskedenhed er baseret på mere end 15 års forskning i mine forskningsgrupper med støtte fra den hedengangne højteknologifond, innovationsfonden, Villum og Det Frie Forskningsråd.

AI-taskforcen burde kort sagt stå overfor et nemt valg mellem to scenarier.

Thomas Troels Hildebrandt
Professor, Datalogisk Institut, Københavns Universitet

Teknologien er baseret på såkaldt symbolsk AI, der er gennemsigtig og forklarlig, og kan nemt integreres med andre værktøjer via et åbent API. Den har allerede i flere år været integreret i KMD WorkZone, der har vist sit værd mange steder i den offentlige sektor og efter NECs opkøb af KMD også eksporteret til udlandet.

AI-taskforcen burde kort sagt stå overfor et nemt valg mellem to scenarier:

I det første satses alt på sort: At få en uforudsigelig ny black-box AI til at virke, som diverse konsulenthuse påstår kan erstatte rigtigt intelligente videnarbejdere. Men på grund af sin upålidelighed kræver den indhegning med andre teknologier eller menneskelig godkendelse af hvert svar og gør os endda umiddelbart afhængige af teknologi udviklet udenfor Danmark.

I det andet scenarie satser taskforcen på kombinationen af flere forskellige typer AI-værktøjer, digitaliseringsteknologier og platforme, der tillader, at fageksperter kan bygge og løbende tilpasse digitalisering af arbejdsgangene på en transparent og pålidelig måde.

Det betyder, at fageksperter fleksibelt kan automatisere de dele af arbejdsgangene, som følger veldefinerede regler og sikrer, at vi bevarer den menneskelige intelligens, godkendelser og skøn, de steder det er påkrævet.

Læs også

Annonce
Annonce
Annonce
Altinget logo
København | Stockholm | Oslo | Bruxelles
Vi tror på politik
AdresseNy Kongensgade 101472 København KTlf. 33 34 35 40redaktionen@altinget.dkCVR nr.: 29624453ISSN: 2597-0127
Ansv. chefredaktørJakob NielsenDirektørAnne Marie KindbergCFOAnders JørningKommerciel direktørMichael Thomsen
Copyright © Altinget, 2026