Dekan: Humanistisk forskning skal tidligere i spil i tech-politikken. Ellers ender vi med endnu et Facebook-øjeblik

Tænk, hvis vi allerede i 2004 havde forstået, hvad sociale medier som Facebook og X ville komme til at betyde for vores demokrati, vores børn og vores fællesskaber – mon ikke verden havde set anderledes ud i dag?
Den pointe satte uddannelses- og forskningsminister Christina Egelund (M) ord på i en tale på en EU-konference i København i begyndelsen af december.
Hendes budskab var klart: Hvis vi havde vidst, hvad Mark Zuckerberg med flere var i gang med, ville vi have reageret.
Men det gjorde vi ikke.
For den teknologiske udvikling bevæger sig i dag hurtigere, end vores politiske, organisatoriske og regulatoriske systemer kan følge med.
Når forståelsen halter efter, opstår der blinde vinkler – og de bliver ofte først synlige, når konsekvenserne har udviklet sig til egentlige samfundsproblemer.
Beredskab er et menneskeligt spørgsmål
I den sikkerhedspolitiske debat taler vi ofte om teknologisk beredskab, suverænitet og robusthed. Men erfaringen viser, at samfund kan være teknologisk beredte og samtidig samfundsmæssigt uforberedte.
Hybridtrusler, cyberangreb og misinformation udnytter ikke kun tekniske sårbarheder, men også organisatoriske og sociale – og det svageste led er ofte det menneskelige.
Teknologi fungerer kun i kriser, hvis mennesker forstår den, stoler på den og kan handle med den og hinanden. Her er forskning i kultur, adfærd, institutioner og historiske erfaringer ikke et supplement, men en del af sikkerhedsarkitekturen.
Hvis Europa og Danmark vil lykkes med fremtidens teknologier, handler det derfor ikke kun om tempo og investeringer.
Det handler om at udvikle løsninger, der kan fungere i samfund med høje krav til tillid, ansvarlighed og demokratisk legitimitet.
Det tog mere end et årti, før vi for alvor forstod, hvordan sociale medier ændrede den demokratiske samtale.
Maja Horst
Dekan, Aarhus Universitet
Innovation kræver menneskelig forståelse
Det tog mere end et årti, før vi for alvor forstod, hvordan sociale medier ændrede den demokratiske samtale.
Nu står Europa igen ved indgangen til en ny teknologisk æra: kunstig intelligens, avanceret sundhedsteknologi og algoritmiske beslutningssystemer.
Og igen er det afgørende ikke kun, hvad teknologien kan, men hvad den gør ved mennesker, institutioner og fællesskaber.
Her viser erfaringerne, at teknologisk robusthed ikke alene er et spørgsmål om kode, datasikkerhed eller investeringer. Den afhænger i høj grad af, hvordan mennesker faktisk møder teknologien i deres hverdag.
AI-modeller trænet på amerikanske tekster
Et konkret eksempel er sproglig og kulturel amerikanisering. Når jeg i min dagligdag bruger det indlejrede AI-system på min computer, oplever jeg, hvordan forslagene ofte lyder amerikanske – i tone, struktur og sprogbrug.
Det er ikke blot et spørgsmål om sprog. Det handler om, at AI-modellerne primært er trænet på engelske, ofte amerikanske, tekster. Dermed indlejres amerikanske normer for kommunikation, organisering og værdier.
Når disse værktøjer skaleres, risikerer vi en gradvis ændring af omgangsformer og kultur, hvor dansk uformel stil, konsensusorienteret kommunikation og kollektive værdier langsomt erstattes af amerikansk corporate speak.
For et universitet handler det ikke kun om effektivitet, men om at bevare den sproglige og kulturelle mangfoldighed, som er kernen i vores danske tradition.
AI skaber digital ulighed
En anden bekymring er den ulighed, som AI-teknologi kan skabe. Velstillede mennesker og organisationer vil kunne betale for avancerede AI-modeller med højere kvalitet, større sikkerhed og færre begrænsninger.
Samtidig vil mere ressourcesvage grupper være henvist til gratis alternativer – ofte med lavere kvalitet, større risiko for fejl og mindre databeskyttelse.
Det skaber en ny form for digital ulighed, hvor adgang til viden, kvaliteten af beslutninger og muligheder for læring bliver endnu mere ulige.
Hybridtrusler, cyberangreb og misinformation udnytter ikke kun tekniske sårbarheder, men også organisatoriske og sociale – og det svageste led er ofte det menneskelige.
Maja Horst
Dekan, Aarhus Universitet
I en uddannelseskontekst betyder det, at studerende fra velstillede hjem får adgang til bedre AI-støtte i deres læring, mens andre må nøjes med værktøjer, der risikerer at forstærke eksisterende bias eller leverer misvisende information. Det udfordrer fundamentalt ambitionen om lige adgang til kvalitetsuddannelse.
Men ulighed handler ikke kun om adgang til teknologi. Det handler også om oplevelsen af kontrol. Når teknologi er noget, andre påfører os, reagerer mange med modstand eller passiv accept.
Når borgere derimod selv er med til at vælge og ibrugtage teknologi, oplever de større ejerskab og tager mere aktivt stilling til, hvordan den skal bruges.
Denne forskel er ikke triviel. Den påvirker både, hvor robust samfundet er over for eksterne trusler, og hvor effektivt teknologien fungerer i praksis. Borgere, der oplever sig som passive forbrugere af teknologi, er mindre tilbøjelige til at reagere konstruktivt i krisesituationer.
Borgere, der derimod ser sig selv som aktive medskabere, kan navigere i usikkerhed, tilpasse deres brug og bidrage til kollektiv resiliens.
Oplevelsen af kontrol er derfor ikke blot et spørgsmål om individuel trivsel – den er en del af det samfundsmæssige beredskab.
Fra blindgyder til bedre beslutninger
Danmark har her et særligt udgangspunkt. Vores traditioner for samarbejde, fælles ejerskab og institutionel tillid har historisk været en styrke – fra andelsbevægelsen til velfærdsstaten.
Spørgsmålet er, om vi formår at omsætte disse erfaringer til nutidens digitale platforme, beslutningssystemer og teknologiske infrastrukturer.
I humanistiske og samfundsvidenskabelige miljøer i Danmark arbejder vi allerede med denne kobling mellem teknologisk udvikling og samfundsmæssig forståelse.
Erfaringen er klar: Når viden om mennesker, kultur og institutioner bringes tidligt ind i innovationsprocesser, bliver løsninger mere robuste, mere anvendelige og mere langtidsholdbare.
De menneskelige og samfundsmæssige spørgsmål skal stilles dér, hvor de overordnede rammer for teknologiudvikling fastlægges – politisk.
Maja Horst
Dekan, Aarhus Universitet
De menneskelige og samfundsmæssige spørgsmål skal stilles dér, hvor de overordnede rammer for teknologiudvikling fastlægges – politisk.
I dag rettes fokus i høj grad mod klassiske tech-miljøer og tekniske løsninger, mens viden om mennesker, kultur, adfærd og institutioner først inddrages, når teknologien allerede er udviklet og udbredt.
Hvis vi vil undgå nye teknologiske blindgyder, kræver det, at politikerne systematisk tænker bredere forskningsmiljøer ind tidligt i processen. Her står danske universiteter allerede med stærke humanistiske og samfundsvidenskabelige miljøer, som er parate til at bidrage, hvis de bringes i spil, før teknologien skaleres – ikke bagefter.
Hvis vi vil undgå endnu et Facebook-øjeblik, må vi stille de menneskelige spørgsmål samtidig med, at teknologien former nye virkeligheder. Vi kan ikke spole tiden tilbage til 2004. Men vi kan handle i 2026.
- Hvis staten ikke dropper kontroversiel virksomhed, bliver vi en teknologisk vasalstat for USA
- Psykiatrifonden: Fire ud af ti unge bruger chatbots som terapeut. Det er på tide at sætte et sikkerhedsnet op
- Kommunernes udgifter til Microsoft er næsten fordoblet på seks år: "Det er en ret voldsom stigning"
- DTU-rektor: AI-spareplaner på universiteterne vil føre til dårligere forskning
- Ugens digitalchef: Sådan bruger vi kunstig intelligens i sundhedsvæsenet




















