Christiern Santos Rasmussen: De sociale medier må stoppe deres ansvarsfralæggelse – men politikerne må udvise tillid til dem

Christiern Santos Rasmussen: De sociale medier må stoppe deres ansvarsfralæggelse – men politikerne må udvise tillid til dem

14.07.2019

.

De digitale medier – Facebook, Google og Twitter – har gennemlevet flere skandaler de sidste par år og lovgiverne er efterhånden trætte af platformenes utilstrækkelige og fodslæbende forsøg på at dæmme op for påvirkningskampagner. Nu truer de med lovgivning. Men det vil ikke være tilstrækkeligt til at løse problemerne. Det kræver noget andet og mere, nemlig tillid og ansvarstagen – fra begge sider.

Analyse af Christiern Santos Rasmussen

Igennem de sidste år har skandalerne om de digitale mediemastodonter hobet sig op. Påvirkningskampagner, undergravning af demokratiet og lemfældig omgang med personlige data er blot nogle af de værste eksempler. Frustrationerne kan nu høres fra både politikere, menneskerettighedsorganisationer og endda militærfolk. Denne frustration og sammenbruddet i tilliden til Facebook, Twitter og Google kan udgøre et problem, når det kommer til at finde holdbare og gennemtænkte løsninger på påvirkningskampagnerne. Der er en risiko for, at følelserne tager overhånd, og at vi ender med simple løsninger på komplekse problemer, der handler om privatisering af påvirkningsvirksomhed, rammerne for den offentlige debat og autokraters undertrykkelse af civilsamfundet.

Skandalerne
Den øgede frustration over de digitale medier, må langt hen ad vejen siges at være mediernes egen skyld. Efteråret bød på mange skandaler, der blandt andet omhandlede dårlig datasikkerhed for brugere (så som Cambridge Analytica-skandalen) og spredningen af mis/desinformation med graverende konsekvenser. Desinformation på de sociale medier spillede bl.a. en ikke ubetydelig rolle i folkemordet på Rohingyaerne. Skandalerne har bidraget til den udbredte holdning blandt lovgivere og eksperter, at de digitale medier er mere reaktive end pro-aktive, når det kommer til at tage ansvar for indholdet på deres platforme.

Situationen blev heller ikke bedre da Facebook fjernede GraphSearch – et vigtigt open-source redskab for bl.a. desinformations-efterforskere og menneskerettighedsaktivister. Fjernelsen, der har handlingslammet mange efterforskere, skyldtes iflg. Facebook selv ondsindede aktørers brug af redskabet til at forfine deres aktivitet på platformen. Som salt i et allerede betændt sår kom YouTube (der ejes af Google) til at fjerne den verdensberømte NGO Bellingcats YouTube-kanal, få timer inden NGO’en fremlagde sin længe ventede rapport om nedskydningen af passagerflyet MH-17 over Ukraine. Begivenheden kom, sammen med fjernelsen af GraphSearch, til at fremstå som et udtryk for de digitale mediers ligegyldighed over for ekspert- og aktivistmiljøet.

 

Begivenheden kom, sammen med fjernelsen af GraphSearch, til at fremstå som et udtryk for de digitale mediers ligegyldighed over for ekspert- og aktivistmiljøet
_______

 

Ud over disse mindre kontroverser med ekspertmiljøet er særligt Facebooks annoncering af, at de vil end-to-end kryptere alle deres beskedtjenester bekymrende, og bliver set som endnu et tegn på platformens manglende ansvarstagen ift. at bekæmpe påvirkningskampagnerne. Krypteringen, der i dag kun gælder WhatsApp, betyder at tredjeparter, så som faktatjekkende institutioner og misinformationsforskere, ikke har adgang til kommunikationen mellem to individer. Selve teknologien er hverken negativ eller positiv i sig selv, men tilbyder muligheder for både ondsindede og venligtsindede aktører. Eksempelvis er krypteringen blevet meget populær blandt journalister og aktivister i autoritære stater, da det skaber en vis sikkerhed og giver en vis beskyttelse fra autoriteterne. I Kina er app’en ligefrem blevet anholdelsesgrundlag.
Men WhatsApp har imidlertid også vist sig som en potent forstærker af påvirkningskampagner ved de brasilianske, spanske og indiske valg. Særligt Indien har grimme erfaringer med WhatsApp med spredning af rygter og misinformation på tjenesten, der har endt i lynchninger af uskyldige. At ville udvide denne ”katalysator” til resten af Facebooks beskedtjenester vakte både en overraskelse, og såede igen en vis tvivl blandt eksperter og beslutningstagere om platformens engagement i kampen imod misinformation.

Snart falder EU-kommissionens hammer: Regulering
Tålmodigheden hos særligt EU-lovgivere lader til at være tyndslidt. EU-kommissionen har igennem næsten et år forsøgt at få Facebook, Google og Twitter til at dæmme op for problemerne med misinformation, gennem den så kaldte Code of Practice. Aftalen, der indgik i Unionens bredere handlingsplan mod desinformation, identificerede fem områder hvor de digitale medier skulle iværksætte en række frivillige initiativer til at bekæmpe digitale påvirkningskampagner. Desværre var forløbet omkring aftalen præget af kommissionens kritik af de digitale mediers fodslæbende engagement og et alt for ensidigt fokus på at fjerne bots og falske profiler, hvilket kun berører et af de fem initiativområder. Indsatsen var imponerende og gav medierne en mulighed at fremstå som handlekraftige – Facebook fjernede fx næsten 2,2 mia. profiler mellem januar og maj. Problemet med dette bot-fokus er dog, at den reelle effekt af disse er uvis. Det egentlige problem er nemlig algoritmerne. De bestemmer, hvilket indhold der bliver eksponeret mest på de sociale medier, og indtil videre lader det til at være baseret på popularitet, dvs. at indholdet på ens feed eller søgeresultat udvælges efter, hvor mange interaktioner, det kan generere. Bots bliver bl.a. brugt til at manipulere disse algoritmer ved at udvise menneskelig adfærd og interagere med specifikt indhold for at give dette indhold større eksponering. Så disse bots er snarere et symptom fremfor selve problemet. Derfor har man længe efterspurgt beviser på, at algoritmerne er ændret til at tage højde for indholdets sandhedsværdi samt begrænsning af misinformation.

 

Man har længe efterspurgt beviser på, at algoritmerne er ændret til at tage højde for indholdets sandhedsværdi samt begrænsning af misinformation
_______

 

I kommissionens evaluering af sin samlede indsats mod påvirkningskampagnerne blev det påpeget, at der fortsat manglede reel handling på flere af aftalens centrale dele. Det gjaldt bl.a. øget transparens ved annoncer – hvor særligt Google og Twitters manglende engagement blev bemærket – tillidsskabende initiativer, samt at give forskere adgang til data og algoritmer. I rapportens delkonklusion gentog kommissionen den tidligere trussel om at lovgive på området, hvis ikke de digitale medie snart levede op til aftalens bestemmelser.

Der har således opbygget sig en stor frustration blandt både forskere, eksperter og beslutningstagere. Ved at have forspildt chancer, udvist manglende situationsfornemmelse og handling mødes de digitale medier nu af en udbredt mistro. Eksempelvis blev Zuckerbergs offentlige efterspørgsel på lovgivning mødt med en vis skepsis blandt eksperter og embedsmænd, da det står det i stærk kontrast til Facebooks tidligere lobbyarbejde mod regulering. Eksperter og embedsmænd har enten set forslaget som Facebooks forsøg på at fastsætte betingelserne for kommende lovgivning (og dermed bevare deres markedsstatus), eller som en ansvarsfralæggelse, forstået på den måde at fremtidige skandaler om misinformation vil kunne afvises ved at give dårlig lovgivning skylden.

Uanset hvad Facebook og Zuckerbergs intention er, vidner reaktionerne om et grundlæggende problem: At to parter, som begge er vigtige for at finde gennemtænkte løsninger på påvirkningskampagnernes komplekse udfordringer, ikke kan tale ordentligt sammen. Det er et problem, når påvirkningskampagnerne stadig udvikles, og når EU kan ende med at sætte en global standard ift. regulering af de digitale medier – med dertilhørende globale effekter.

 

Reaktionerne vidner om et grundlæggende problem: At to parter, som begge er vigtige for at finde gennemtænkte løsninger på påvirkningskampagnernes komplekse udfordringer, ikke kan tale ordentligt sammen
_______

 

Privatiseringen af påvirkningskampagner
Igennem det sidste år har man set en professionalisering af påvirkningskampagnerne og de digitale virkemidler. De drives ikke længere af stater, men opererer på et overraskende tilgængeligt sort marked. Denne ”privatisering” kan have tre konsekvenser.

For det første, at aktører, der ikke før besad de tekniske færdigheder til at bedrive påvirkningskampagner, nu kan tilegne sig hele påvirkningskampagner til den rigtige pris. Dermed er døren åbnet for langt flere statsaktører og påvirkningskampagner. Dertil betyder brugen af ”mellemmænd”, at ondsindede aktører nu kan outsource digitale spor og skylden til private aktører. Hvis den russiske regering fx hyrer en privatudbyder fra Israel, som the Archimedes Group, til at bedrive påvirkningskampagner mod et tysk forbundsvalg, bliver det svært for tyske myndigheder at undgå at ende i en blindgyde, når de ansvarlige skal findes. Det sænker risikoen for at blive fanget og øger incitamentet til at bedrive påvirkningskampagner.

Den tredje udfordring er, at teknologien ikke længere drives af politiske interesser men af profithensyn. Det giver et jævnt incitament til at forfine og videreudvikle redskaber og strategier, uafhængigt af politiske cyklusser. Dermed kan den eksisterende konkurrence med de digitale mediers filtrerings-algoritmer intensiveres på langt sigt. Filtreringsalgoritmerne er et særligt vigtigt redskab imod påvirkningskampagnerne, fordi de udrenser platformene for bots. For at imødekomme denne professionalisering og begrænse påvirkningskampagner er det nødvendigt, at man kan følge udviklingen af påvirkningskampagners nye metoder og strategier. Men for at eksperter kan analysere de seneste metoder samt påvirkningskampagnernes eksakte størrelse, og for at modforanstaltninger kan blive opdateret, kræves der adgang og kendskab til de digitale mediers data, algoritmer og de informationsdynamikker, de skaber. Skal vi være forberedt på nye former for påvirkningskampagner, er det derfor vigtigt, at der er et langsigtet samarbejde med de digitale medier, der bygger på tillid og deres tekniske kompetencer.

 

Skal vi være forberedt på nye former for påvirkningskampagner, er det derfor vigtigt, at der er et langsigtet samarbejde med de digitale medier, der bygger på tillid
_______

 

Det er vigtigt at pointere, at Twitter og Facebook har offentliggjort data om påvirkningskampagner og sender data til udvalgte forskningscentre og tænketanke for at få det analyseret. Det har været afgørende for vores forståelse af påvirkningskampanger, men er samtidigt problematisk, da vi ikke kender udvælgelseskriterierne for offentliggørelsen, og da vigtig data kan mangle – eksempelvis har Twitter afslået at offentliggøre visse data pga. bekymringer om privathed.

Problemerne med fællesskabsreglerne og kunstig intelligens
En anden dimension af udfordringen med misinformation, gælder rammerne for den offentlige debat og adfærden på de digitale medier. De eksisterende rammer, på dansk kaldet fællesskabsreglerne, censurerer allerede i dag en række ytringer, såsom hate speech, opfordringer til vold, falske nyheder og profiler som udviser ”ikke-autentisk” adfærd. Udover debatten om, hvorvidt disse fællesskabsregler begrænser ytringsfriheden, er der et problem med ”falske negativer og falske positiver”, hvilket grundlæggende betyder, at platformene tager fejl, straffer de forkerte, og lader de skyldige gå. Et eksempel er den fejlagtige fjernelse af to Twitter-profiler ejet af en britisk og amerikansk student. Fjernelsen skete på anmodning af Indiske myndigheder, der mistænkte de to studerende for at indgå i en pakistansk påvirkningskampagne rettet mod Indien. Men de udslagsgivende tweets indeholdte ikke misinformation, opfordrede ikke til vold og handlede dertil ikke engang om regionen, hvilket tyder på at Twitters filtreringsalgoritme enten er mangelfuld, eller at Twitter ikke stillede spørgsmålstegn ved den indiske anmodning.

Udover at disse regler kan ende med en uhensigtsmæssig begrænsning af uskyldiges ytringsfrihed, kan ondsindede aktører også bruge fællesskabsreglerne som redskaber mod sine modstandere. Et relativt nyt fænomen er zuccing, hvor facebookgrupper infiltreres for så at få fx krænkende indhold lagt op. Indholdet bruges derefter som grundlag for at anmelde gruppen for at sprede førnævnte indhold, med henblik på at få lukket gruppen. Derfor er det afgørende, at fællesskabsreglerne, og måden hvorpå de håndhæves, designes således, at de ikke rammer uskyldige eller kan misbruges. Dette kræver en del teknisk snilde.

 

Det er afgørende, at fællesskabsreglerne (…) designes således, at de ikke rammer uskyldige eller kan misbruges. Dette kræver en del teknisk snilde
_______

 

Indtil videre håber man på, at en blanding af kunstig intelligens og menneskelig evaluering er tilstrækkeligt. Problemet med kunstig intelligens er, at det kræver, at man har tillid til de digitale medier, når de siger, at deres screenings-filtre er opdaterede, og samtidig kræver evaluering af information en vis viden om den kulturelle kontekst. Et eksempel er Nick Mogensen fra Nye Borgerlige, der fik 30 dages karantæne fra Facebook for at skrive oikofobi – et ord de færreste danskere kender, og som betegner had til eller irrationel skyldfølelse over egen kulturel baggrund. Derfor er det nødvendigt, at det er mennesker, som er bekendte med den kulturelle kontekst, der evaluerer indhold og træffer beslutningen om, hvorvidt karantæne eller nedlæggelse skal finde sted. Underudbyderne, som platformene bruger til at håndhæve fællesskabsreglerne, er blevet kritiseret for at have en binær tilgang, hvor den ansatte slavisk følger et anvist skema og ikke udfører en reel evaluering. Dertil har der været foruroligende rapporter om de psykiske ar. som de ansatte påføres af deres daglige eksponering overfor det værste, internettet har at byde på, hvilket også peger på et behov for regulering.

Endeligt er der en vis fordel i at misinformation og uønsket adfærd er i det offentliges søgelys.

For det første kan man holde øje med den specifikke adfærd, som man anser for at være foruroligende, som den diverse ekstremister udviser, hvilket giver forskere en vis adgang til data om informations- og sociale dynamikker, der fx kan bruges til at stoppe radikalisering af unge. For rigid en tilgang fra de digitale mediers side kan betyde, at folk med ekstreme holdninger og påvirkningskampagner søger mod andre og mere liberale sociale platforme, som markedsfører sig på ikke at have strikse fællesskabsregler. Er det tilfældet, risikerer man, at problemet med misinformation og hate-speech bare skubbes videre til andre platforme uden for offentlighedens søgelys og kontrol.

Disse platforme kan ende med at udgøre en niche for ekstreme holdninger, såsom internetforummet 4chan /pol/ der i de seneste år har taget en højreradikal drejning. Frygten er, at disse platforme dermed ender som ekko-kamre, hvor ekstreme holdninger forstærkes til en sådan grad, at holdningerne manifesteres offline gennem fx demonstrationer, optøjer eller terrorangreb. Disse ekko-kamre kan igen udnyttes af ondsindede aktører til at mobilisere ekstremister og puste til politiske skel for at fremme deres sag eller destabilisere samfundet. Om vi vil det eller ej, er Facebook og Twitter bedre alternativer i denne henseende.

 

Disse platforme kan ende med at udgøre en niche for ekstreme holdninger, såsom internetforummet 4chan /pol/ der i de seneste år har taget en højreradikal drejning
_______

 

Pas på den liberal-demokratiske boble
Endeligt er der en særlig risiko for, at (vestlige) beslutningstagere tager for snævert et udgangspunkt i frie og liberale samfund, når regulering af de digitale medier indføres. Love, der er skabt til, for og af liberale demokratiske samfund, kan have meget anderledes konsekvenser i autoritære samfund. Allerede nu bruges vestlige love og bekymringer om fake news og misinformation som påskud for at indføre statscensur i autokratiske lande. Eksempelvis blev den tyske ”NetzDG”-lov brugt som påskud for skærpelse af statscensuren i Rusland. Gør EU alvor af truslen om anti-desinformations regulering af de digitale medier, skal man være opmærksom på, at man derved sætter en global standard. En standard der ikke må sættes i vrede. For ved begrænse bots og falske profiler tyr man ofte til krav om transparens og autenticitet, hvor man vil forsikre sig om, at profilerne er dem, som de udgiver sig for at være. Men det kan have konsekvenser for aktivister, journalister og demokratiske bevægelser i autokratiske samfund. De er ofte afhængige af den sikkerhed, der ligger i anonymitet på de sociale medier. Vores viden om krigsforbrydelserne i Syrien skyldes i høj grad aktivister, der opererer under falske navne på fx Twitter. Dermed har europæiske lovgivere også et ansvar for borgere uden for egne grænser.

Når den kommende regulering af de digitale medier indføres, er det vigtigt at undgå simplificerede tiltag, der risikerer at gøre større skade end gavn. At finde de gennemtænkte løsninger, der både giver en kant over for påvirkningskampagnerne og samtidig viser demokratisk hensyn – også for andre samfund end vores eget – forudsætter en ordentlig og konstruktiv dialog mellem bl.a. beslutningstagere, eksperter og de digitale medier. Det kræver, at man tager en dyb indånding og tør udvise tillid til de digitale medier, der ligeledes bør gøre langt mere for at vise, at de er tilliden værdig. Det kunne fx ske ved at give Europa Kommissionen og udvalgte eksperter særadgang til algoritmerne.

 

Det kræver, at man tager en dyb indånding og tør udvise tillid til de digitale medier, der ligeledes bør gøre langt mere for at vise, at de er tilliden værdig. Det kunne fx ske ved at give Europa Kommissionen og udvalgte eksperter særadgang til algoritmerne
_______

 


Christiern Santos Rasmussen (f. 1994) er videnskabelig Assistent ved Center for Militære Studier [ILLUSTRATION: Facebooks Mark Zuckerberg forlader Elysee-palæet i Paris, 10/5 2019 [foto: Eliot Blondet/ABACAPRESS/Scanpix]