AI-direktør: AI kan løfte undervisningen, hvis lærerne har kontrollen. Men det kræver klare politiske rammer

Potentialet i brugen af AI i skoleregi er enormt for lærere og elever, men teknologien og anvendelsesmulighederne udvikler sig eksponentielt.
Det er krævende at følge med, og det forklarer den sunde skepsis, mange lærere giver udtryk for. Som medstifter af en AI til skoler og ungdomsuddannelser drøfter jeg problematikken med lærere på ugentlig basis. Det giver mig stor indsigt, og det betyder, at jeg er part i debatten. Så er det på plads.
AI fandtes ikke for få år siden. Nu maser teknologien sig på fra alle sider. I 2010'erne så vi det samme, da skolerne skulle digitaliseres. Eleverne blev placeret bag en skærm, og lærernes didaktiske kreativitet blev groft sagt reduceret til et valg mellem forskellige online læringsforløb.
Den fejl må vi ikke gentage. AI kan være en løftestang til mere undervisning uden skærm og bedre undervisning med skærm. Hvis vi skal lykkes, så må vi sætte lærerne i centrum og lade dem tage styring over teknologien.
Der er brug for politiske rammer, som dels sikrer lærerne adgang til AI-produkter af høj kvalitet, dels bidrager til at øge ansvaret hos udbyderne af AI. For der er meget at tage ansvar for.
Giv lærerne kontrollen tilbage
I en debat om SkoleGPT har lærer Jonas Stenberg Lauritsen peget på en række reelle problemer. Han beskriver, hvordan AI-værktøjet kommer til kort, når undervisningen bevæger sig bare en smule væk fra det ufarlige.
Kritikken afvises med argumentet om, at man ikke både kan få maksimal sikkerhed og den mest avancerede teknologi til børn. Den præmis er forkert, gør læreren til slave af teknologien og sætter barren alt for lavt.
Hvis vi vil realisere AI's potentiale og skabe mere varieret, kreativ og meningsfuld undervisning, skal vi være langt mere ambitiøse. Vi skal gøre lærerne dygtigere til at bruge AI i undervisningen og give dem fremragende teknologi i trygge rammer.
Der er brug for politiske rammer, som dels sikrer lærerne adgang til AI-produkter af høj kvalitet, dels bidrager til at øge ansvaret hos udbyderne af AI.
Laurits Rasmussen
Stifter og administrerende direktør, Miira
AI-værktøjer skal kunne bruges fleksibelt, målrettes og formes af lærerne, inspirere til perspektivskift, gøre rutineopgaver mere engagerende eller til at arbejde bevidst med bias og teknologiforståelse. Hvis en lærer vil have en AI til at svare overdrevet forkert for at illustrere en pointe, skal det være et aktivt valg, ikke en uomtvistelig begrænsning i teknologien.
Lærerne får styringen tilbage gennem fremragende AI-løsninger, der er bygget til undervisningens virkelighed, og via en politisk rammesætning, der gør det lettere for skoler og kommuner at tilvælge gode, sikre løsninger.
Sæt klare politiske rammer
AI i skolen åbner for en række væsentlige spørgsmål, som Stenberg delvist berører i sit indlæg: Hvor ofte må en AI tage fejl? Hvor høj en fejlprocent vil vi acceptere? Skal AI-udbydere deklarere fejlprocenter tydeligere?
Hvor godt skal børns data beskyttes? Må amerikanerne skabe profiler af vores elever og følge med i deres faglige udvikling? Skal vi skylle elevernes data ud med badevandet og opgive de læringspotentialer, der er gemt i en fornuftig brug af data? Findes der gyldne middelveje?
Her står vi på et kludetæppe af EU-lovgivning, eksisterende data-aftaler med USA, nye sikkerhedspolitiske hensyn og hensynets til den enkelte elevs læring.
Som AI-udbyder til undervisning har vi nogle muligheder som sjældent nævnes. Vi kan lave statistik på, hvor ofte vores modeller laver fejl, fortælle tydeligt, hvad vi og vores underleverandører stiller op med data i alskens worst case-scenarier (læs: hvad kan Trump kræve udleveret?).
Vi kan overvåge den redaktionelle linje i de svar, vores teknologier producerer, så vi undgår en situation, hvor en amerikansk AI ubemærket begynder at sprede historier med en særlig vinkling. Hvis vi som udbydere gør disse ting på hver vores måde, så er det umuligt for skoler og kommuner at sammenligne de AI-produkter, der findes på markedet. Derfor er der brug for klare politiske rammer.
Skab konkurrence
Den digitale udvikling i 2010'erne kan kritiseres for at have ført til et for høj skærmbrug, men der var noget, der lykkedes.
AI i skolen åbner for en række væsentlige spørgsmål: Hvor ofte må en AI tage fejl? Hvor høj en fejlprocent vil vi acceptere? Skal AI-udbydere deklarere fejlprocenter tydeligere?
Laurits Rasmussen
Stifter og administrerende direktør, Miira
Fra politisk side stimulerede man en fri konkurrence, som betød, at der for første gang i mange år kom helt nye spillere på en bane, som de danske forlag ellers havde siddet enormt tungt på siden bogtrykkerkunsten gjorde sit indtog. Midlet var simpelt: Man støttede skolernes indkøb.
Hvis man kombinerer klare krav med en bedre fordeling af udgiften mellem skolen, der bærer ansvaret for den enkeltes læring, og staten, der bærer ansvaret for vores fælles (data)sikkerhed, så tror jeg vi vil lykkes med at give lærerne kontrollen tilbage, så flere lærere styrer teknologien.
Vi vil også lykkes med at skabe transparens om kvalitet og den "redaktionelle linje" i AI-produkter til skolen. Som samfund får vi et mangfoldigt udbud af løsninger, der bidrager til datasuverænitet og en etisk forsvarlig omgang med den data der tilhører vores børn og unge.
Artiklen var skrevet af
Omtalte personer
- Folketinget reducerer antallet af udvalg for at mindske arbejdspres
- Professor: Et kommuneministerie kan være fint, men regeringsgrundlaget er vigtigere
- Uddannelsesforbundet og 3F: Det nye folketing må ikke sætte epx'en over styr
- FGU-formand advarer mod at genåbne epx-aftale
- Tidligere kommunaldirektør: Skolevægring koster kommunerne dyrt. Men det er et problem, vi godt kan løse




























