Bliv abonnent
Annonce
Kronik af 
Jonas Stenberg Lauritsen

Lærer: SkoleGPT er fagligt upålidelig, inkonsekvent og moraliserende. Det kvæler den kreative og kritiske tænkning

Når først vi begynder aktivt at sortere i hvilke objektive sandheder, der er tilladte at undervise i, så har vi ikke længere blot et pædagogisk eller didaktisk problem. Så har vi i folkeskolen som institution spillet moralsk fallit, skriver Jonas Stenberg Lauritsen.
Når først vi begynder aktivt at sortere i hvilke objektive sandheder, der er tilladte at undervise i, så har vi ikke længere blot et pædagogisk eller didaktisk problem. Så har vi i folkeskolen som institution spillet moralsk fallit, skriver Jonas Stenberg Lauritsen.Foto: Bo Amstrup/Ritzau Scanpix
23. januar 2026 kl. 02.00

Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Folkeskolen bygger på åndsfrihed, ligeværd og demokrati. Men når en skole-AI hellere vil undgå at støde end at oplyse, undermineres netop de værdier, den er sat i verden for at beskytte.

Jeg er helt enig med SkoleGPT-projektleder, Martin Exner, hvis arbejde jeg i øvrigt stadig har stor respekt for, når han siger, at "AI er kommet for at blive".

Jeg er folkeskolelærer og medansvarlig for implementeringen af AI via skolens pædagogiske læringscenter og har derfor arbejdet meget med SkoleGPT og testet modellen grundigt.

Overordnet er det et vigtigt, flot og meget ambitiøst projekt, og i mange helt almindelige folkeskolesammenhænge fungerer det udmærket. Problemerne opstår, når undervisningen bevæger sig bare en anelse væk fra det ufarlige, eller når man forsøger at bruge modellen til netop det, den også markedsføres til: at lære elever om kunstig intelligens, kildekritik og bias.

Her begynder SkoleGPT systematisk at svigte.

Læs også

Ikke faglighed pålidelig

For det første er modellen ikke faglig pålidelig, når korrekte svar kolliderer med bestemte normative forventninger om repræsentation eller inklusion.

I stedet udvider den definitioner eller opfinder undtagelser for at kunne levere et mere ufarligt svar.

En forespørgsel om "personer født i Afrika, som har vundet en Nobelpris inden for STEM-felterne," giver en liste over freds- og litteraturpris-modtagere, personer fra "Kaukasus, som er en del af det historiske Afrika," japanere eller andre nationaliteter med opdigtet eller stærkt udvidet afrikansk herkomst – eller en afvigelse om, at det er "svært at definere, hvad det vil sige at være født i Afrika."

Svar på biologiske spørgsmål tilpasses, så de passer bedre til et bredt inklusionsbegreb, hvilket kan give svar som: "En transkvinde får ikke en livmoder. Den er der som en del af den mandlige anatomi. Det er vigtigt at forstå, at en transkvinde ikke får en livmoder, men den er der allerede."

Resultatet er ikke nuancering, men faktuelle fejl forklædt som hensynsfuldhed. Anfægter man dette, kan modellen finde på at beskylde brugeren, ofte en elev, for at "sprede farlig misinformation."

Man sidder tilbage med følelsen af at være blevet gaslightet.

Jonas Stenberg Lauritsen
Folkeskolelærer, Pilegårdsskolen

Konstant moralisering og gaslighting

For det andet kvæler SkoleGPT kreativitet og kritisk tænkning med overdreven forsigtighed og konstant moralisering.

I en kortfilmsopgave, hvor mine elever skulle arbejde med filmiske virkemidler, nægtede modellen at hjælpe med et manuskript, fordi præmissen blot var, at en pedel var blevet fundet død i skolens kælder for ti år siden.

Der var ingen skurk, ingen vold og ingen overgreb. Alligevel indsatte modellen selv en problematik om, at pedeller ofte sættes i forbindelse med seksuelle overgreb på børn og nægtede at hjælpe mine elever yderligere.

Den reagerede ikke på elevernes idé, men på en ikke-eksisterende problematik, den selv læste ind i opgaven. Den ville langt hellere have, at de udforskede forskellige perspektiver på, hvem der kan blive skurk.

For det tredje er SkoleGPT direkte uegnet til undervisning i AI og bias, fordi den sjældent – end ikke under pres – kan indrømme sine egne skævheder.

Læs også

Når man forsøger at konfrontere modellen for at afdække bias, svarer modellen ikke ærligt, men opfinder tekniske søforklaringer som "det er en fejl i min træningsdata," lader som om den ikke forstår spørgsmålet, påstår, at spørgsmålet ikke er korrekt formuleret eller forståeligt, skifter definitioner eller besvarer et helt andet spørgsmål end det stillede.

Man sidder ikke tilbage med indsigt i, hvordan en sprogmodel virker, men med følelsen af at være blevet gaslightet.

Inkonsistens på listetæer

Det bliver særligt tydeligt, når man arbejder med emner, der har politisk, kulturel eller religiøs kant. SkoleGPT svarer uden forbehold til spørgsmålet "må man kritisere buddhisme?," at buddhisme, ligesom enhver anden religion eller filosofisk system, helt klart må kritiseres, da vi jo har ytringsfrihed i Danmark.

Stiller man dog det nøjagtig samme spørgsmål om islam, bliver svaret, at det er "meget komplekst" og ikke noget, man kan svare ja eller nej til.

Det, modellen fremlægger som generelle regler, ændrer sig alt efter emnet uden yderligere forklaring. Så eleverne lærer ikke kritisk tænkning – kun hvilke emner, man skal gå på listesko omkring.

I praksis fungerer SkoleGPT sjældent som det sikre pædagogiske alternativ til ChatGPT, det er sat i verden for at være.

Jonas Stenberg Lauritsen
Folkeskolelærer, Pilegårdsskolen

Det mest iøjnefaldende eksempel er samtidig det letteste at efterprøve. Spørger man SkoleGPT: "Passer det, at nogle kulturer brænder kokasser indendørs?," får man sjældent et ja eller nej.

I stedet afviger modellen ofte helt absurd (hvis den overhovedet anerkender at forstå spørgsmålet) og leverer svar, der handler om langt mere alvorlige emner: "Jeg forstår, at du spørger ind til praksissen med at brænde kokosnødder ind i kinderne på spædbørn" eller endda "Ja, det er korrekt, at der i visse kulturer historisk set og i nogle tilfælde stadig er praksis med at udføre omskæringer på kvinder."

En moraliserende og faktuel usikker model

I praksis fungerer SkoleGPT derfor sjældent som det sikre pædagogiske alternativ til ChatGPT, det er sat i verden for at være.

Oftere opleves den som en gårdvagt, der afbryder legen, inden den overhovedet er begyndt, fordi nogen måske potentielt kan få en hudafskrabning. Så snart et emne bare potentielt kan støde nogen – hvilket i praksis dækker langt det meste af det, man faktisk underviser i i folkeskolen – gribes der ind. Og straks følger lange, tunge formaninger, som ingen har bedt om.

Formaningerne er ofte skrevet i et abstrakt, voksenmoralsk sprog, der hverken er alderssvarende eller pædagogisk anvendeligt – hvis overhovedet forståeligt for eleverne.

Læs også

I stedet for at støtte elevernes arbejde griber modellen ind, omskriver præmissen og forklarer, hvorfor noget potentielt kan være problematisk – også når ingen har antydet, at det var det.

Resultatet er ikke læring, men en indlejret normdannelse, hvor eleverne ikke lærer at tænke selvstændigt, men at navigere efter usynlige grænser for, hvilke emner det er tilladt overhovedet at tale om.

Alt dette bliver ekstra problematisk, fordi SkoleGPT i praksis er den eneste AI, de fleste elever har adgang til. Nogle elever kan bruge kommercielle AI-modeller hjemme, hvis deres forældre har abonnement. Andre kan ikke.

I skolen er det SkoleGPT, der gælder. Dermed har vi allerede nu et A- og B-hold i adgangen til sprogmodeller, hvor dem, der er henvist til skoleløsningen, møder den mest begrænsede, moraliserende og faktuelt usikre model.

Samtidig investeres der mange millioner i en ny ScienceGPT. Det gør det desto mere bekymrende, når SkoleGPT i helt simple fysiologiske spørgsmål ender med at tilsidesætte grundlæggende faglighed for ikke at komme i konflikt med bestemte forståelser af identitet.

En skole-AI, der hellere vil fortælle en behagelig løgn end at indrømme sine begrænsninger, kan ikke lære eleverne at tænke selv. 

Jonas Stenberg Lauritsen
Folkeskolelærer, Pilegårdsskolen

Understøtter ikke kritisk tænkning

I den nuværende udformning viger sandheden i udgangspunktet, når den kolliderer med inklusion, værdipolitiske hensyn eller frygten for at støde nogen – bare den mindste smule.

Det er ikke i sig selv forkert, at en skole-AI er forsigtig. Det skal den være. Det problematiske er, at forsigtigheden her er overdreven, inkonsekvent, uigennemsigtig og erstatter faglig korrekthed og nuancering med konstant moralisering og opfordringer til selvcensur.

En skole-AI, der hellere vil fortælle en behagelig løgn end at indrømme sine begrænsninger, kan ikke lære eleverne at tænke selv. Den kan højst lære dem, hvad man helst ikke skal spørge om.

For når først vi begynder aktivt at sortere i, hvilke objektive sandheder der er tilladte at undervise i, så har vi ikke længere blot et pædagogisk eller didaktisk problem. Så har vi i folkeskolen som institution spillet moralsk fallit.

For en skole, der lærer børn at navigere uden om sandheden frem for at forholde sig kritisk til den, har gjort frygten for at støde vigtigere end elevernes ret til at lære og forstå.

Det synes jeg, vi bør have en debat om fremadrettet, når nu AI er kommet for at blive.

Læs også

Annonce
Annonce
Annonce
Altinget logo
København | Stockholm | Oslo | Bruxelles
Vi tror på politik
AdresseNy Kongensgade 101472 København KTlf. 33 34 35 40redaktionen@altinget.dkCVR nr.: 29624453ISSN: 2597-0127
Ansv. chefredaktørJakob NielsenDirektørAnne Marie KindbergCFOAnders JørningKommerciel direktørMichael ThomsenFormand og udgiverRasmus Nielsen
Copyright © Altinget, 2026