Christel Schaldemose: Der er brug for hård lovgivning mod spredning af desinformation

Facebooks forretningsmodel skaber basis for spredning af desinformation. Det er der brug for hård lovgivning imod. Digital Services Act kan levere en del af svaret. Men er det nok? Det spørgsmål stiller Christel Schaldemose i dette indlæg.

Placeholder image
Fra europæisk hold er vi i gang med at færdigforhandle EU's store tech-lov på området. Den såkaldte 'Digital Services Act'. Her er jeg hele Europa-Parlamentets chefforhandler, skriver Christel Schaldemose (S). Foto: Asger Ladefoged/Ritzau Scanpix
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

”Sandheden er det første offer i en krig”, er en talemåde vi alle kender. Med krigen i Ukraine er denne talemåde blevet aktualiseret i al sin gru.

Temadebat

Hvordan skal EU forsvare sig mod Ruslands digitale krigsførelse?

EU debatterer i øjeblikket, hvordan Unionen bør forsvare demokratiet mod Ruslands digitale krigsførelse.

Altinget Digital spørger derfor: Hvilke greb bør vi ty til?

Om temadebatter:
Altinget bringer kun debatindlæg, som udelukkende er skrevet til Altinget.

Alle indlæg er alene udtryk for skribenternes holdning.

Vil du deltage i debatten om cyberkrig? Indlæg kan sendes til ida@altinget.dk.

Journalister der opholder sig i Rusland må ikke bruge termen ”krig” om det, der foregår i Ukraine. Det er helt absurd og dybt problematisk.

Men det er ikke kun i Rusland, at krigen om ord udspiller sig. Det gør den også på de sociale medier. Derfor har vi brug for bedre lovgivning. Og den er på vej.

Men først til lidt definition. Der er en masse informationer og misinformationer, der flyder rundt på de sociale medier, og ikke mindst på de store platforme. Men der er også desinformation. Og forskellen er ret afgørende.

Desinformation er, når man bevidst spreder ”informationer”, der er løgne eller meget langt fra fakta med det formål at skade en person, en gruppe eller et samfund”.

Desinformation er skadeligt og farligt. Misinformation kan også være skadeligt, men hvis det ikke er bevidst med henblik på at skade, er det ikke desinformation.

Desinformation skal adresseres politisk

Jeg ser desinformationen som et kæmpe politisk problem. Og det skal vi gøre noget ved. Vi så det meget tydeligt på de sociale medier i ugerne op til krigen, og efter krigen i Ukraine brød ud.

Jeg ser desinformationen som et kæmpe politisk problem. Og det skal vi gøre noget ved.

Christel Schaldemose, MEP (S) og chefforhandler på Digital Services Act

Vi så også egentlig desinformation under Covid-pandemien. Desinformationens afsendere søger altid øjeblikket, hvor de kan splitte samfundets fælles forståelse af virkeligheden ved at skabe tvivl om fakta og begivenheder. Og her fungerer de sociale medier som dynamit, der katapulterer desinformation ud til brugerne.

Fra europæisk hold er vi i gang med at færdigforhandle EU's store tech-lov på området. Den såkaldte ''Digital Services Act''. Her er jeg hele Europa-Parlamentets chefforhandler.

Og her er er det helt naturligt, at vi tryktester den på virkeligheden. Hvad kan 'Digital Services Act' gøre i forhold til desinformation, og er det tilstrækkeligt til at bekæmpe det, vi ser udspille sig i disse uger?

I 'Digital Services Act' lægger vi op til, at platformene skal lave årlige risikovurderinger af deres algoritmer med henblik på at se, om der er systemiske risici.

Hvis en platforms algoritmer fremmer desinformation, som er skadeligt for et samfund, så skal platformen tage initiativer til at forebygge dette.

Eller med andre ord, platformene skal ændre deres algoritmer, så de som det mindste nedgraderer desinformation.

Havde vi haft disse regler i dag, så havde platformene været forpligtet til at justere deres algoritmer, så nyheder fra eksempelvis de to russiske statspropagandakanaler RussiaToday og Sputnik ville have været væsentligt nedgraderet.

Facebooks forretningsmodel promoverer desinformation

Vi ved fra studier, at franske brugere af Facebook gerne vil have nyheder fra den franske udgave af DR, nemlig kanalen France24. Det viser brugerne gennem at like deres side. Alligevel fik brugerne på grund af Facebooks algoritmer markant flere nyheder fra RussiaToday.

Det er der flere årsager til. Dels fordi Facebook har valgt at fremme indhold, der får folk til at interagere med hinanden (like, dislike, dele). Det gør Facebook, fordi det betyder, vi bliver længere på platformen og på den måde får Facebook flere data om os, som gør at de kan sælge flere målrettede annoncer.

Med andre ord er det grundlæggende Facebooks forretningsmodel, der skaber basis for at RussiaTodays indhold blev spredt til de franske brugere

Christel Schaldemose, MEP (S) og chefforhandler på Digital Services Act

Med andre ord er det grundlæggende Facebooks forretningsmodel, der skaber basis for at RussiaTodays indhold blev spredt til de franske brugere.

Men det skyldes også, at RussiaToday har været utroligt gode til at udnytte disse algoritmers virkning.

Derfor lagde RussiaToday' løbende indhold op, mest i form af videoer. Videoer med indhold, der kontinuerligt og helt bevidst søgte at skabe tvivl om faktuelle udtalelser, data om vacciner og myndigheder, designet til at blive superspredt af Facebook algoritmer. Samtidig kigger de store tech-giganter den anden vej.

'Digital Services Act' er kun en del af løsningen

Havde vi haft 'Digital Services Act' i funktion op til krigen i Ukraine, ville kravet til Facebook have været at de skulle risikovurdere deres algoritmer, den risikovurdering ville formodentlig have vist markant forøget risiko for desinformation og så burde Facebook have justeret deres algoritmer for at undgå dette.

Det gjorde de ikke. Ikke af sig selv. Det var først da EU-Kommissær Thierry Breton tog telefonen og lagde pres på Big Techs CEOs, at de tilpassede deres algoritmer midlertidigt.

 

Der er brug for hård lovgivning. Digital Services Act kan levere en del af svaret. Men er det nok?

Christel Schaldemose, MEP (S) og chefforhandler på Digital Services Act

Med andre ord er der brug for en hård lovgivning. Vi kan ikke forvente at platformene frivilligt tager hånd om dette. For det strider imod deres grundlæggende forretningsmodel.

'Digital Services Act' kan levere en del af svaret. Men er det nok?

Det sidder vi og drøfter i disse uger. Jeg tror, der kunne være brug for nogle ekstra tiltag i forbindelse med krig eller ekstraordinære situationer såsom en pandemi eller krig.

'Digital Services Act' lægger op til årlige risikovurderinger. Det er ikke sikkert at dette er tilstrækkelig. Derfor overvejer vi nu om vi skal tilføje en såkaldt ”krigsklausul”, som gør at EU kommissionen i givet fald vil kunne forpligte platformene til at foretage en ekstra risikovurdering, når noget ekstraordinært finder sted.

Jeg forventer at 'Digital Services Act' fundamentalt vil forandre den måde vi kan forpligte platformene til at gøre op med desinformation på.

Det er tiltrængt og bydende nødvendigt at tage et opgør med den ansvarsfralæggelse techvirksomhederne har nydt godt af de sidste 20 år. Krigen er Ruslands ansvar, men spredningen af desinformation online er platformenes ansvar at gøre noget ved.

Vi giver dem forpligtelsen og redskaberne til at tøjle desinformation. Det er vores politiske ansvar som lovgivere.


Politik har aldrig været vigtigere
Få gratis nyheder fra Danmarks største politiske redaktion
Ved at tilmelde dig Altingets nyhedsbrev, accepterer du vores generelle betingelser