Forsker: Nettets oprydningsalgoritmer har uønskede konsekvenser

DEBAT: Digitale platforme benytter algoritmer til at frasortere uønsket indhold, men forskning peger på problemer med bias og ophavsretsvurdering. Der er brug for transparens i platformenes implementering, skriver Sebastian Schwemer.

Af Sebastian Schwemer
Erhvervs Postdoc på Center for informations- og innovationsret (CIIR), Københavns Universitet

Brugergeneret indhold på nettet står for en stor og vigtig del af både for forretningsmodeller og samfundet. Det er de billeder, vi deler, de kommentarer og blogposts, vi skriver.

E-handelsdirektivet er den europæiske lovramme, hvor der blandt andet reguleres, under hvilke forudsætninger internetaktører skal være fri for ansvar for det indhold, der bliver delt af deres brugere.

Platformenes notice-and-takedown-procedurer, for eksempel, udspringer af dette.

Pandoras æske skal åbnes
Selvom der er sket en rivende udvikling siden e-handelsdirektivet blev vedtaget for 19 år siden, har tidligere Europa-Kommissioner nok været af den opfattelse, at åbningen af direktivet svarer til at åbne Pandoras æske.

I stedet for at åbne de horisontale regler, der gælder på tværs af områder, har man derfor valgt at løse problemerne sektorspecifikt som på det digitale ophavsretsområde.

Den indkommende Kommissionspræsident Ursula von der Leyen har i sit visionspapir nu annonceret, at man vil kigge på en ”opgradering” af disse centrale regler i en Digital Services Act.

Tendens til at stole mere på private algoritmer
I et forskningsprojekt finansieret af Dansk Internet Forum og Innovationsfonden kigger jeg på internetaktører og deres rolle i forhold til ulovligt indhold.

Igennem min forskning kan jeg konstatere to reguleringstendenser:

For det første skal private internetaktører, primært onlineplatforme, være mere proaktive i håndhævelsen af ulovligt indhold. For det andet foreslås det i stigende grad at ske i automatiseret form via algoritmer.

Over de sidste år har vi set mange udviklinger i den retning allerede: Europa-Kommissionen har forslået proaktive foranstaltninger – filteralgoritmer – til onlineplatforme.

Artikel 17 af direktivet om ophavsret på det digitale indre marked har åbnet dørene for, at visse indholdsdelingsplatforme de facto skal filtrere ophavsretsbeskyttet indhold. Ligeledes er proaktive mekanismer blevet foreslået i forhold til terrorindhold.

En af de vigtige punkter i revisionen kommer derfor til at handle om, hvorvidt man støtter mere automatiseret (algoritmisk) indholdskontrol.

Og faktisk gør aktører som Facebook og Youtube det allerede i dag. Private internetaktører definerer i vidt omfang, hvad vi må gøre på deres tjenester. Og også hvordan det bliver håndhævet.

Skab transparens i forhold til private aktørers procedurer og algoritmer
Men har vi egentlig svaret på det mere principielle spørgsmål, i hvilket omfang vi vil stole på algoritmer af private aktører til at rydde op på nettet?

Der findes eksempelvis forskning, der peger på, at hatespeech-algoritmer har en racemæssig bias. Det virker også ret uklart, hvordan algoritmer skal håndtere ophavsretlige undtagelser som parodi – noget, der kan være vanskeligt for eksperter at afgøre.

Og listen over eksempler over uønskede konsekvenser eller bivirkninger kan fortsætte. Det er et betydningsfuldt eksempel på den overordnede debat, der kører omkring regulering af kunstig intelligens, der er relevant her og nu.

Der er brug for mere transparens i platformenes implementering, der vil gøre det muligt at vurdere, hvordan disse modeller fungerer.

At overlade oprydningsarbejde til internetaktører og deres algoritmer virker som en nem vej ud. Men privatisering af håndhævelsen har mange udfordringer og åbner døre for, at techgiganterne får endnu mere indflydelse på vores adfærd på nettet.

Vejen til bedre regulering?
E-handelsdirektivet har tjent internetsamfundet i næsten to årtier. Og overraskende godt, hvis man tænker på, at den stammer fra tiden inden Facebook, Youtube eller Twitter.

Og når Europa-Kommissionen nu vælger at opdatere reglerne på området, må man gå ud fra, at de igen skal tjene i lang tid. Men hvordan ser verden ud om 10 eller 15 år?

Set fra mit forskerperspektiv er åbningen spændende. EU-Domstolen har afgjort et stort antal sager, og retsområdet er blevet komplekst. Der er brug for mere retssikkerhed på området og for regulering, der skaber transparens i techgiganternes indholdsmoderation.

Men hvordan finder vi den rette balance? Og hvordan kan det sikres, at grundrettighederne ikke eroderes?

Debatten om artikel 17, for eksempel, har været båret af en for-eller-imod-tilgang. Der findes en generel tendens i tiden til at være meget kritisk over for tech.

Men svarene er ikke sort-hvide. Det er vigtigt at føre en saglig debat for at komme til en fremtidssikret regulering.

Selvom vores holdninger ikke er lige så provokante som techgiganternes eller rettighedshaveres, er vi forskere egentlig slet ikke så kedelige. Og så kigger vi på disse problemstillinger med saglige og uafhængige briller.

Måske ville det jo være en idé at lytte lidt mere til forskningen i den kommende proces?

Forrige artikel Aktører: Gør teknologiforståelse til et obligatorisk fag på alle uddannelser Aktører: Gør teknologiforståelse til et obligatorisk fag på alle uddannelser Næste artikel Direktør: Drop kønskvoter og brug kønsdiversitetsdata Direktør: Drop kønskvoter og brug kønsdiversitetsdata
Ny forskning viser blockchain-teknologiens potentiale i Danmark

Ny forskning viser blockchain-teknologiens potentiale i Danmark

UFORLØST: Blockchain-teknologien blev for få år siden kædet sammen med samfundsomvæltende væksteventyr, men det er udeblevet. En ny undersøgelse viser både stor nysgerrighed og udfordringer for virksomheder, der vil arbejde med teknologien i Danmark