Debat

It-ekspert: Nøgenbilleder af Taylor Swift viser behovet for lovindgreb mod deep fakes

Kunstig intelligens kan skabe intime billeder, der ligner virkeligheden så meget, at der er brug for afklaring af, hvornår deling af et AI-genereret nøgenbillede rent juridisk er en forbrydelse. Som det er i dag, falder deep fakes ned mellem flere lovparagraffer, skriver Jelle Wieringa.

Som specialist indenfor IT-sikkerhedsadfærd er det min veldokumenterede overbevisning, at klarere og mere nuanceret lovgivning angående seksuelle overgreb på sociale medier er en absolut nødvendighed, skriver Julie Wieringa. 
Som specialist indenfor IT-sikkerhedsadfærd er det min veldokumenterede overbevisning, at klarere og mere nuanceret lovgivning angående seksuelle overgreb på sociale medier er en absolut nødvendighed, skriver Julie Wieringa. Foto: Mike Blake/Reuters/Ritzau Scanpix
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

I slutningen af januar gik en række nøgenbilleder af verdensstjernen Taylor Swift viralt efter at være blevet delt på det sociale medie, X.

Indholdet blev fjernet efter 17 timer, men de mange fotos nåede stadig at blive set 47 millioner gange, og selvom billederne ikke længere er til at finde på X, kan de stadig nemt søges frem på diverse andre platforme.

Men de mange nøgenbilleder var i virkeligheden ikke af Taylor Swift, men derimod såkaldte deepfakes, altså AI-genererede billeder, og selvom de ligner Swift, så er det ikke hende. Og her bliver grænserne pludselig meget flydende, for hvor meget skal billederne ligne Taylor Swift før, at der juridisk er tale om en forbrydelse?

I de senere år er der sket en voldsom stigning i antallet af seksuelle overgreb på sociale medier - særligt på kvinder. Det inkluderer chikane, stalking, hævnporno og sextortion (økonomisk afpresning mod ikke at dele intime billeder) med mere. Og nu også deepfakes, hvor man AI-genererer intimt eller ligefrem pornografisk materiale ved brug af uskyldige billeder fra særligt sociale medier.

Er AI-porno ulovligt?

De fleste kan nok blive enige om, at det at stjæle andres billeder, for at lave dem om til nøgenbilleder eller decideret porno, er moralsk forkasteligt og uetisk. Men det helt store spørgsmål er: Er det ulovligt?

Den eksisterende lovgivning er simpelthen ikke specifik nok. Og den tager ikke højde for mange af de nuancer, som findes i forbindelse med eksempelvis hævnporno, sextortion eller deepfake porno

Jelle Wieringa
Specialist inden for IT-sikkerhedsadfærd, Knowbe4

Og nej, mange af disse handlinger, som de fleste mennesker meget hurtigt vil udpege som forbrydelser, er faktisk ikke ulovlige – i hvert fald ikke på den måde, du tror.

For selvom tendensen ikke er helt ny længere, halter lovgivningen gevaldigt bagefter den teknologiske udvikling, og det gør det svært for ofrene for digitale, seksuelle overgreb at tage kampen op mod deres udnyttere.

Den eksisterende lovgivning er simpelthen ikke specifik nok. Og den tager ikke højde for mange af de nuancer, som findes i forbindelse med eksempelvis hævnporno, sextortion eller deepfake porno.

I Danmark har vi set flere eksempler på denne type sager, og bagmændene er ganske vist blevet dømt. Men de er blevet dømt ud fra forskellige love, som ikke har noget med kunstig intelligens at gøre.

Det er ikke Swift, men det ligner

De kvinder (og mænd) der får stjålet deres billeder, eksempelvis fra sociale medier, og pludselig ser sig selv i en pornofilm eller lignende kan ikke anmelde forbrydelsen som brud på en lov om AI-nøgenbilleder eller deepfake porno.

I stedet må de stykke deres anmeldelse sammen med udgangspunkt i forskellige love såsom loven om blufærdighedskrænkelse, GDPR eller straffeloven om freds- og ærekrænkelse – eller andre specifikke lovgivninger i deres land.

Læs også

I sidstnævnte fremgår det, at man kan straffes, hvis man ”videregiver […] billeder vedrørende en andens private forhold eller i øvrigt billeder af den pågældende under omstændigheder, der åbenbart kan forlanges unddraget en bredere offentlighed.”

Her vil gerningsmanden få en bødestraf eller op til seks måneders fængsel, og op til tre år under skærpede omstændigheder. Ved blufærdighedskrænkelse straffes man som udgangspunkt med bøde eller to års fængsel ved krænkelse af personer over 15 år.

Problemet er bare, at deepfakes, præcis som i tilfældet med Swift, ikke er billeder af et andet menneske. De ligner blot et andet menneske. Og pludselig bliver en politianmeldelse og en eventuel domsfældelse en kompleks sag, for hvor meget skal noget ligne, før det repræsenterer den forurettede i en sådan grad, at det er strafbart?

Og står den nuværende og mere generelle strafferamme mål med de specifikke forbrydelser, som bliver begået, når der bliver genereret nøgenbilleder og pornofilm af kvinder og mindreårige piger?

Brug for ny lovgivning

For selvfølgelig bruges teknologien også til børneporno.

I sommeren 2023 oplevede dusinvis af mindreårige piger fra Spanien, at der blev distribueret AI-generede nøgenbilleder af dem på den folkeskole, hvor de gik. Pigerne var mellem 12 og 14 år, og nogle af dem oplevede endda at blive kontaktet på sociale medier, hvor en bagmand forsøgte at afpresse dem til at overføre penge for ikke at dele billederne.

I sager som den der gik udover spanske skolebørn, eller den som ramte Taylor Swift, virker behovet for øget opmærksomhed i forbindelse med digitale, seksuelle forbrydelser fuldstændig tydeligt.

Men måske kan der alligevel komme noget godt ud af forfærdelige historier som disse.

Den teknologiske udvikling stiller nogle helt nye krav til lovgivning, retningslinjer og rettigheder, og når vi står overfor noget nyt, så kræver det en eller flere store begivenheder at få os til at tage stilling til, hvor vores grænser går.

Man så en eksplosion i mængden af eksplicitte og pornografiske deepfakes i 2023, og man må forvente, at det er en tendens, der kommer til at stige yderligere

Jelle Wieringa
Specialist inden for IT-sikkerhedsadfærd, Knowbe4

Man må inderligt håbe, at Swift-sagen kan kickstarte en meget nødvendig diskussion og stillingtagen til et voldsomt stort og meget presserende problem.

EU-kommissionen rejste allerede i 2022, i kølvandet på #MeToo, et lovforslag, der skulle gøre det muligt for EU-lande at slå hårdere ned på blandt andet online misbrug af kvinder. Man ønsker at kunne sætte hårdere ind overfor cyberkriminalitet såsom cyberstalking, cyberchikane og deling af intime billeder uden samtykke; herunder deepfakes.

Og tidssvarende ændringer i lovgivningen er der brug for. Ligesom at Facebook’s Cambridge Analytica-scandale førte til ny og relativ hurtig lovgivning om deling af personlige data, kan vi håbe, at vi ser en lignende eftervirkning af AI-billederne af Taylor Swift.

Man så en eksplosion i mængden af eksplicitte og pornografiske deepfakes i 2023, og man må forvente, at det er en tendens, der kommer til at stige yderligere.

Som specialist indenfor IT-sikkerhedsadfærd er det min veldokumenterede overbevisning, at klarere og mere nuanceret lovgivning på området er en absolut nødvendighed. Og så skal der ske en aktiv forstærkning, der gør det muligt at håndhæve den opstrammede lovgivning - både på nationalt, men også på internationalt plan.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00