Datalog om DF-deepfake: Det er et spørgsmål om tid, før det vil være umuligt at skelne falske og ægte videoer
Før eller siden ville vi se deepfakes i dansk politik. Det overraskende var derfor ikke, at en falsk video med Mette Frederiksen vakte furore, men at afsenderen var et etableret politisk parti, skriver Aske Mottelson.
Aske Mottelson
Lektor, IT-UniversitetetMandag morgen, før jeg nåede på plads på mit kontor på Islands Brygge på IT-Universitetet, begyndte min telefon at ringe ualmindeligt hyppigt. Først Jyllands-Posten, så Politiken, RADIO4, og dernæst DR.
Fælles for henvendelserne var, at de ville vide, hvordan jeg forholdt mig til Dansk Folkepartis satiriske brug af den fremstormende teknologi til fremstilling af syntetiske videoer baseret på kunstig intelligens, såkaldte deepfakes. "Hvad tænkte du, da Mette Frederiksen (S) erklærede julen for aflyst?", blev der spurgt i kor.
Det sidste års tid har jeg som leder af et forskningsprojekt om netop deepfakes, undersøgt hvordan mennesker påvirkes af videoer skabt af kunstig intelligens, med metoder fra kognitiv psykologi. Så måske kunne videnskaben hjælpe med at besvare det spørgsmål.
Vi skal vænne os til en ny virkelighed, hvor vi hverken kan stole på tekst, billeder, lyd eller video.
Datalog, ph.d. og lektor, IT-Universitetet
Ordet deepfake refererer til brugen af maskinlæringsparadigmet deep learning til generering af højt realistiske, men aldeles fake, digitale medier. De computerprogrammer, der bruges til formålet, er alsidige i måden, de er programmeret på, hvordan de virker, og hvilken slags medier de kan generere.
Således dækker begrebet over en række tekniske løsninger, der tillader, at man kan skifte ansigter, efterligne tale, eller komplet fabrikere overbevisende billeder, lyd og video baseret på simple forespørgsler. Fælles for løsningerne er, at algoritmerne, med regnekraftige maskiner, er trænet på massevis af data fundet på internettet.
Mere troværdige end virkelige medier
Der kan næppe herske tvivl, når man ser Mette Frederiksen tordne frem på det ikoniske pressemøde i Statsministeriet og erklærer julen for afviklet, at der er tale om en falsk video.
Foruden en tekst der deklarerer videoen som falsk, er billederne uklare, lyden maskinel og klipningen flyder; dette understreget af Peter Kofods udtalelse til DR: "Hvis man går ind og ser den, kan man godt se, at det ikke er den Mette Frederiksen, vi kender."
Der er flere grunde til, at det kan være en dristig konklusion at hvile på. Først er det blot et spørgsmål om tid, og det varer sandsynligvis ikke længe, før teknologien modnes yderligere, og det vil være praktisk talt umuligt at skelne falske og ægte videoer på billed- og lydkvaliteten.
For det andet opleves video- og billedindslag på sociale medier ofte på skærme fra små mobiltelefoner, hvor det kan være svært at identificere suspekte fejl. Slutteligt viser studier i anerkendte videnskabelige tidsskrifter (som PNAS, PLOS og iScience), at teknologien allerede nu kan frembringe billeder og lyd, der er umulige at skelne fra ægte.
Deepfakes vægtes i studier endda mere troværdige end virkelige medier. Du læste rigtigt: Studier peger på, at når mennesker bliver bedt om at evaluere falske og ægte billeder, fremstår de falske mere ægte end de ægte.
Vores egne forskningsresultater, der for tiden er under fagfællebedømmelse, peger ligeledes på, at deepfakes, i sammenligning med kameraoptagelser, fordrer samme læringspotentialer, opmærksomhed og troværdighed.
Teknologien er kommet for at blive
Allerede i dag benyttes teknologien bag deepfakes i stort omfang til produktive, kreative og andre godartede formål.
Når mennesker bliver bedt om at evaluere falske og ægte billeder, fremstår de falske mere ægte end de ægte.
Datalog, ph.d. og lektor, IT-Universitetet
Filmproducenter kan hurtigt og billigt afprøve idéer, før de påbegynder optagelser, virksomhedsledere kan effektivt kommunikere på tværs af sprog til medarbejdere og omverdenen, musikere kan transformere deres lyd til den stil, de ønsker, og forskere, journalister, og kommunikatører kan illustrere deres budskaber uden nævneværdige illustrative evner.
Det er derfor uomtvisteligt, at teknologien er kommet for at blive. Man skal være naiv for at tro, at brugen af deepfakes til uhæderlige formål, såsom hævnporno, politisk motiveret misinformation og internetsvindel ikke ligeledes vil tage til.
Et spørgsmål om tid
I det forgangne år, hvor mine kollegaer og jeg har afviklet flere psykologiske studier af, hvordan mennesker påvirkes af syntetiske videoer, har der været provokerende sager om spredningen af deepfakes.
Vi har set deepfakes med Joe Biden, der indkalder alle unge mænd til militæret, Olaf Scholz, der erklærer AfD forbudt, og pornografisk materiale med Taylor Swift.
Det er derfor åbenlyst, at vi skal vænne os til en ny virkelighed, hvor vi hverken kan stole på tekst, billeder, lyd eller video.
Det var et spørgsmål om tid, før teknologien blev taget i brug i dansk politik. Det overraskende var derfor ikke, at en falsk video med Mette Frederiksen vakte furore. Det overraskende var, at afsenderen var et etableret politisk parti.