
Torsdag 9. januar var hele to ministre, social- og boligminister Sophie Hæstorp (S) og digitaliseringsminister Caroline Stage (M), bragt i samråd om en række kommuners brug af Google Translate i sager om tvangsfjernelse af ukrainske flygtningebørn.
Sagen er indbegrebet af en rigtig ”møgsag” med alvorlige fejl, misforståelser og store konsekvenser for de involverede familier, og der var da heller ingen af de to ministre, der gjorde noget som helst forsøg på at forsvare kommunernes brug af Google Translate i denne type sager.
For det er selvfølgelig dybt uansvarligt, hvis myndighederne begynder at basere socialpolitik af så personligt indgribende karakter på en AI-oversættelse med alt, hvad det indebærer af fejlkilder.
Her handler det særligt om personfølsomme data, og hvorvidt persondataloven er blevet overholdt.
Ifølge ministrenes svar på de mange spørgsmål til samrådet, så er lovgivningen på plads, men sagen afspejler også tydeligt, at det er praksis ikke, når det handler om, hvordan vi kan bruge AI.
AI kræver forståelse
Det korte af det lange er, at som AI-håndværker skal man have styr på sin værktøjskasse.
Nogle gange er det kun den menneskelige intelligens, der virker. Andre gange er det bedste værktøj de velgennemprøvede offentlige digitale systemer, som er udviklet gennem mange år. Og så har vi en god række eksempler på, at en eller anden form for AI enten kan løse et problem, der ikke har kunne løses før, eller bare kan gøre det bedre eller hurtigere.
At have styr på AI-værktøjskassen betyder, at man skal have et minimum af forståelse for, hvad AI-elementet i den pågældende løsning går ud på.
Om modenhedsniveauet er højt nok til, at problemet overhovedet kan løses på tilfredsstillende vis, og om forretningsmodellen bag systemet er acceptabel i forhold til den kontekst, systemet skal benyttes i.
De fleste AI-systemer, vi har adgang til, træder stadig rundt i barneskoene.
Grit Munk
Digitaliseringspolitisk chef, IDA
Google Translate bruger for eksempel NMT (neural maskinoversættelse), der analyserer på hele sætninger og derfor er blevet langt mere præcis end tidligere. Det har løftet kvaliteten gevaldigt.
For lidt mere end ti år siden stod jeg ved den kinesiske mur på en ferie og forsøgte via telefonen at kommunikere med et kinesisk kærestepar for at få hjælp til billetterne.
Det var mildest talt noget rod, og der blev grinet en hel del fra begge parter, inden vi fandt ud af det. Situationen ville være en helt anden i dag.
Teknologi kræver kontekst
Men så kommer vi til konteksten, for den teknologi, der er genial på ferien, er ikke nødvendigvis overhovedet brugbar i sagsbehandling – eller for den sags skyld, hvis der skal forhandles kontrakter eller holdes møder.
De fleste AI-systemer, vi har adgang til, træder stadig rundt i barneskoene. ChatGPT hallucinerer, Google Translate laver fejl, og langt fra alle systemer lever op til den europæiske persondataforordnings krav om beskyttelse af vores privatliv.
Da OpenAI åbnede op for gratis brug af ChatGPT, handlede det netop om, at systemet skulle trænes – og at det er uendeligt meget billigere og hurtigere, hvis hele kloden hjælper med til det. Og så lærte vi at tage fejlene med.
Forretningsmodellen bag den gratis adgang til ChatGPT er jo ikke at hjælpe os med at få en mere effektivt offentlig sektor, eller at vores børn skal blive klogere. Det er forretningsmodellen bag Google Translate heller ikke.
Jeg er enig med de to ministre i, at lovgivningen er på plads, når det kommer til at brug af AI i den offentlige sektor.
Forvaltningsloven stiller krav. Det samme gør persondataloven (GDPR). Og AI Act – EU’s nye forordning om kunstig intelligens – stiller også med sin risikobaserede tilgang til AI nogle meget fornuftige krav om risikovurderinger og konsekvensanalyser ved brug af AI på områder, som er defineret som højrisiko.
En risikovurdering af brugen af Google Translate i en sag om tvangsfjernelse af børn ville sandsynligvis havde fået de pågældende brugere til at opgive det system.
Den politiske opgave er ikke at ændre i lovgivningen, men at ændre i praksis.
Grit Munk
Digitaliseringspolitisk chef, IDA
Styr på værktøjskassen
Den politiske opgave er altså ikke at ændre i lovgivningen, men at ændre i praksis – og at styrke vejledning og tilsyn med, hvordan AI bruges rundt omkring. Et godt sted at starte er at øge bevillingerne til Datatilsynet.
Det er også meget positivt at høre digitaliseringsministerens meget direkte afvisning af, at det er klogt at starte på at bruge AI på de svære sager, der involverer børn og deres særligt personfølsomme data, og at man i stedet bør fokusere på de lavthængende frugter. Der er rigeligt brug for at regne noget mere på vejr, vind og vandmasser.
Det handler om at øge serviceniveauet (det er også en form for effektivitet) og kvaliteten i den offentlige sektor. Der er alt mulig grund til at undersøge, hvad AI kan gøre for os dér.
Men det kræver, at man har styr på værktøjskassen. At relevante medarbejdere har kompetencerne til at udvælge de rigtige systemer og kan stille de rigtige kritiske spørgsmål.
Lige så praktisk AI er til søgemaskiner, energiberegninger og hurtig hjælp på ferien, ligeså kritiske og dygtige skal vi være, når det handler om de værktøjer, vi skal bruge til at behandle sager om mennesker.
Artiklen var skrevet af
Omtalte personer




























