Professor Joanna Bryson: Med kunstig intelligens bliver det langt nemmere at overvåge befolkningen. Men problemet er politisk, ikke teknologisk

Professor Joanna Bryson: Med kunstig intelligens bliver det langt nemmere at overvåge befolkningen. Men problemet er politisk, ikke teknologisk

24.03.2020

.

”Ansigtskendelse en virkelig radikal transformation af det samfund, vi lever i. Selv hvis teknologien virker, som den skal, så kommer oplevelsen af at gå ned ad gaden til at være fuldkommen anderledes end tidligere. Det er nu langt sværere at gemme sig for myndighederne end tidligere, og det har indflydelse på alle aspekter af vores liv”

Interview med professor i etik og teknologi Joanna Bryson. Foretaget af David Rischel

RÆSON: Kunstig intelligens [AI, red.] kan have mange betydninger. Hvordan definerer du kunstig intelligens?
BRYSON: Jeg definerer normalt intelligens som det første. Intelligens er en agents kapacitet til at handle ud fra den kontekst, som agenten befinder sig i. Og det er et relativt mål, så skabninger kan være mere eller mindre i stand til at håndtere de udfordringer, som de bliver stillet over for. Kunstig intelligens er simpelthen den delmængde af intelligente skabninger, som vi har skabt.

RÆSON: Kunstig intelligens bliver brugt til mange gode formål, som fx systemer, der kan forbedre effektiviteten i landbruget eller øge kvaliteten af vores MR-scanninger. Men nogle applikationer er mere problematiske. Fx har der på det seneste været en del bekymring over ansigtsgenkendelsesteknologier, som potentielt kan gøre det nemmere for stater at kontrollere deres befolkninger. Hvordan virker ansigtsgenkendelsesteknologier, og hvor bekymrede skal vi være for dem?
BRYSON: Der er overordnet to ting, man skal forstå, når det gælder ansigtsgenkendelsesteknologier. For det første: kapaciteten til at genkende et ansigt i et billede og matche det til et datasæt kan gøres på to forskellige måder. Enten kan ens ansigt blive tjekket mod et billede, fx på ens pas, hvilket ikke er så problematisk – hvis man altså stoler på systemets cybersikkerhed og den organisation eller regering, som har skabt systemet. Den anden måde er, at man kan tjekke ens ansigt mod millioner eller milliarder af personer, som man ved et eller andet om. Og det, man kan bekymre sig for, er, at hvis ens ansigt bliver tjekket op mod en liste på et par millioner kriminelle, så ligner man måske en af de kriminelle. Og det er i særlig grad et problem, fordi teknologien er bygget med maskinlæring [maskinlæring er en form for kunstig intelligens, hvor et computerprogram trænes – af sig selv eller mennesker – til fx at opdage relevante sammenhænge i et datasæt, red.].

Maskinlæring er ofte bygget med partiske datasæt, som indeholder mere information om en bestemt race eller et bestemt køn, hvilket kan føre til at folk bliver matchet til en kriminel, selvom de ikke ligner hinanden særligt meget. Enkelte mennesker vil derfor blive diskrimineret og generet mere, end hvad der er berettiget, fordi de ikke tilhører den dominerende økonomiske klasse af folk. Det er dog vigtigt at pointere, at virksomheder og lande kan opføre sig ret ondskabsfuldt selv med repræsentative datasæt. Der var fx en sag med virksomheden Clearview AI, som indsamlede over tre milliarder billeder fra sociale medier, hvilket er et ret stort og sandsynligvis repræsentativt datasæt. De forsøgte at matche folk på overvågningsbilleder til det datasæt og solgte den service til politimyndigheder. Da en journalist begyndte at undersøge deres praksisser, begyndte de at ringe rundt til politimyndigheder i landet og bad dem om ikke at tale med journalisten. Det er et godt eksempel på ondskabsfuld opførsel.

 

Der sker i øjeblikket nogle enormt skræmmende ting i Kina. Meget af det handler dog ikke om sofistikerede AI-systemer. Det handler derimod mere om digitale teknologier generelt
_______

 

RÆSON: Så der lader til at være en bekymring om miskarakterisering, hvor ikke-relevante karakteristika som fx hudfarve eller køn bliver brugt til at identificere en anden relevant egenskab, fx kriminalitet eller folks kreditværdighed.
BRYSON: Det er én måde at anskue det på. Pointen er, at det er mere sandsynligt jo færre mennesker, der er i datasættet. Et nyligt eksempel var, da Apple Pay gav folk forskellige overtræksgrænser baseret på deres køn. Kvinder endte med at havde lavere overtræksgrænser end mænd, selvom de havde højere kreditværdighed.

Uanset hvad, så er ansigtskendelse en virkelig radikal transformation af det samfund, vi lever i. Selv hvis teknologien virker, som den skal, selv hvis man ikke er en undertrykt minoritet, selv hvis man er hvid, så kommer oplevelsen af at gå ned ad gaden til at være fuldkommen anderledes end tidligere. Indtil nu har man kunnet snige sig væk, og myndighederne har ikke altid kunnet vide, hvor man har opholdt sig. Det er nu langt sværere at gemme sig for myndighederne end tidligere, og det har indflydelse på alle aspekter af vores liv. Så det handler ikke kun om bias i brugen og indsamlingen af data, selvom det er en stor del af det.

RÆSON: Klart. Der er også en modsat bekymring, at der faktisk er et komplet eller tæt på komplet datasæt, hvilket vi fx ser konsekvensen af i den mest avancerede overvågningsstat i verden, Xinjiang-provinsen i Kina. Kan du sige noget om det?
BRYSON: Der sker i øjeblikket nogle enormt skræmmende ting i Kina. Meget af det handler dog ikke om sofistikerede AI-systemer. Det handler derimod mere om digitale teknologier generelt. I Xinjiang kan man blive smidt i koncentrationslejr eller fængsel, hvis man ønsker nogen glædelig Eid – den muslimske helligdag. Uden kunstig intelligens ville man ikke kunne vide, at de ønskede hinanden glædelig Eid på fx WhatsApp. Men på den anden side, så har vi lige set, at Indien fjernede internetadgangen og alle telefonforbindelser til Kashmir og begyndte at snakke om at bygge koncentrationslejre. Og det har man faktisk ikke brug for kunstig intelligens til at gøre. Vi kan godt forfærdes over måden, kunstig intelligens misbruges på, men den dybere rædsel er, at samfund er villige til at isolere dele af deres befolkninger eller udrense dem. Det skete utallige gange i det 20. århundrede. Så det dybere problem er politisk, ikke teknologisk.

RÆSON: Med andre ord, så er kunstig intelligens ikke en nødvendig eller en tilstrækkelig forudsætning for at skabe koncentrationslejre.
BRYSON: Nej, det er ikke en nødvendig forudsætning, selv ikke i det 21. århundrede. Det lader virkelig til, at Kina er i gang med et enormt eksperiment, hvor de forsøger at hjernevaske en hel. Det burde også forfærde almindelige Han-kinesere, da det er et eksperiment, der bagefter kan implementeres på resten af befolkningen. Som sagt vil jeg ikke underdrive, hvor rædselsfuld situationen er for uighurerne. Jeg forsøger blot at pointere, at det ikke kun handler om dem, og at det ikke kun handler om kunstig intelligens. Det handler nok i virkeligheden ikke primært om kunstig intelligens. Og det er ikke kun noget, der foregår i Kina.

Selvom det selvfølgelig ikke er så slemt som at blive separeret fra sin familie og smidt i fængsel, så kan man se på sådan noget som tvungne adfærdsændringer. Det amerikanske forsikringsselskab John Hancock har fx implementeret et tiltag, hvor man skal gå med en Fitbit (en aktivitetsmåler, red) for at bevise, at man motionerer nok til at kunne få adgang til sundhedsforsikring. Det er den samme form for adfærdsmæssig modificering eller manipulation, vi ser i Kina, hvor man skal gå nok for at forhøje sin social kreditværdighed. Hvis ens forsikringsselskab i USA tvinger en til at gøre dette, så har man ikke noget valg. Det er en forfærdelig indskrænkning af folks frihed, selv hvis det er for folks eget velbefindende.

 

Pointen er, at så snart man har samlet al den her data – selv hvis det er af godsindede grunde, udført af en demokratisk retsstat – så kan man risikere, at staten eller organisationen, som har indsamlet den her data, bliver hacket…
_______

 


RÆSON: Man kunne argumentere for, at selvom kunstig intelligens ikke er en nødvendig eller tilstrækkelig forudsætning for de her former for undertrykkende teknologier, så bliver det dog nemmere for stater som Kina at kontrollere dets befolkning. Er du enig i det?

BRYSON: Jeg kan ikke komme i tanke om noget lettere, end det som Indien gjorde i Kashmir fuldstændig uden brug af kunstig intelligens. De fjernede internetadgangen og alle telefonforbindelser fra det ene øjeblik til det andet. Kunstig intelligens har derfor ikke gjort undertrykkelse nemmere, men det har betydet, at overvågning har potentiale til at være mere gennemtrængende i dag. Et bemærkelsesværdigt faktum omkring digitale teknologier er, hvor hurtigt funktionaliteten af de enkelte teknologier udvikler sig: det ene øjeblik bruges en teknologi som ansigtsgenkendelse til at låse folks telefoner op, og det næste øjeblik kan man bruge det til at finde ud af, hvem der nedstammer fra Djengis Khan. Pointen er, at så snart man har samlet al den her data – selv hvis det er af godsindede grunde, udført af en demokratisk retsstat – så kan man risikere, at staten eller organisationen, som har indsamlet den her data, bliver hacket og pludselig befinder den her data sig hos en eller anden tilfældig organisation, som har en anti-NATO-agenda.

Det handler ikke om at have gjort noget forkert, som fortalere for overvågning siger fra tid til anden. Det handler om, at man kan forestille sig, at der er nogen, der kommer til magten, som ikke bryder sig om, hvad man har gang i. Det er en årsag til bekymring. Basalt set, så mener jeg, at den digitale transformation, som vi er i gang med at gennemgå, som kunstig intelligens blot er en lille del af, kræver, at vi får løst en række politiske problemer mere end noget andet. Nemlig hvordan vi forsvarer os effektivt mod de her teknologier, og hvordan vi regerer os selv effektivt.

RÆSON: Det lader til, at der en ret central idé bag meget af den måde, kunstig intelligens bliver brugt på – både af stater som Kina og USA, men også firmaer som Facebook og Amazon – nemlig at tracke individet eller agenten i ’real time’. Der er det her håb om at skabe et totalt billede af individet, sådan at man kan rekonstruere individets opførsel frem til en bestemt begivenhed, eller så man kan forudsige, hvilke handlinger han eller hun vil foretage sig efterfølgende. Hvordan er kunstig intelligens central for denne idé, og er det noget, vi bør være bekymret for?
BRYSON: Facebook og YouTube bekymrer sig mest om at holde vores opmærksomhed fanget. Men de sælger de samme data til folk, som ønsker at forudsige ens handlinger og ønsker at blande sig i, hvilke valg man træffer. Hvis man ser på de anklager som Chris Wiley fremsatte mod Cambridge Analytica, så forsøgte de ikke at få folk til at gøre ting, som de ellers ikke ville have gjort. Det, de gjorde, var at finde frem til alle de folk, som havde samme politiske overbevisning som de folk, der betalte Cambridge Analytica. De fandt frem til en masse højreorienterede mennesker og introducerede dem til hinanden. På den måde blev folk ikke manipuleret til at ændre deres holdninger. Det handlede om at få folk, som måske ikke ville have stemt, til at føle, at de havde en stemme.

 

Men det, som GDPR-lovgivningen viste, var, at hvis man danner koalitioner med tilstrækkelig mange ligesindede borgere og regeringer, så kan man skabe en kritisk masse, som gør, at virksomheder virkelig lytter
_______

 

Pointen er, at moderfirmaet bag Cambridge Analytica, SCL Group, havde udført den her slags arbejde – adfærdsmodifikation og politisk indblanding – i mere end 30 år i den tredje verden, hvilket de har været ret åbne omkring. Men nu blev de så brugt i England, og en del af det handlede om, at de brugte kunstig intelligens til at tilskynde nogle til at involvere sig politisk og gøre andre modløse, fx ved at fortælle minoriteter, at der ikke er nogen forskel på partierne. Det centrale er, at man ikke forsøger at ændre folks præferencer, men at man modificerer deres adfærd ved at isolere dem eller ved at bringe dem sammen med andre. Det er en nuance, som folk nogle gange har svært ved at forstå.

RÆSON: Man kan jo argumentere for, at det, som Cambridge Analytica gjorde, var ulovligt, men Facebook er konstant involveret i opførsel, hvor adfærdsmæssige data, som vi alle overfører til Facebook, bliver brugt til at få os til at forbruge mere indhold på Facebook. Samtidig er de blevet en enormt central del af den offentlige sfære. Så kan man ikke godt sige, at Facebook er involveret i en eller anden form for forsøg på at transformere vores motiver eller præferencer?
BRYSON: I så fald var det i hvert fald ikke det, der var den oprindelige intention. Jeg tror, de fandt ud af, at måden, de kunne generere profit på, var ved at bruge Facebook som reklamesølje. Og marketing og reklamering har altid været involveret i at ændre og forme vores motiver og præferencer.

RÆSON: Så problemet er mere, at kunstig intelligens skalerer og accelererer nogle processer, som allerede er til stede – fx som det er tilfældet med almindelig reklamering – der forsøger at ændre og forme vores præferencer og motiver?
BRYSON: Absolut. Det er der ikke nogen tvivl om.

RÆSON: Du nævnte før, at det var vigtigt, at vi forsvarede os mod nogle af de her udviklinger. Hvordan bør regeringer og borgere reagere på de her tendenser?
BRYSON: Ift. det regulatoriske niveau, så arbejder jeg i øjeblikket med at få beslutningstagere til at forstå, at kunstig intelligens er software. Og software er nedskrevet. Og når du skriver noget ned, så er det muligt at lave et arkiv over det. Et sådant arkiv burde virkelig oprettes, så vi kan finde ud af, om virksomhederne overholder reglerne. På den måde kan placere skyld ved dem, hvor det ikke er tilfældet. Men hovedproblemet er som sagt politisk: vi bliver nødt til at respektere, at regeringer er måden, hvorpå vi bestemmer, hvad firmaer kan og ikke kan gøre. Hvis man er borger i et lille land som Danmark, kan det være man tænker: ”Hvad kan jeg gøre?” Men det, som GDPR-lovgivningen [Persondataforordningen, red.] viste, var, at hvis man danner koalitioner med tilstrækkelig mange ligesindede borgere og regeringer, så kan man skabe en kritisk masse, som gør, at virksomheder virkelig lytter. ■

 

Men hovedproblemet er som sagt politisk: vi bliver nødt til at respektere, at regeringer er måden, hvorpå vi bestemmer, hvad firmaer kan og ikke kan gøre
_______

 



Joanna Bryson (f. 1965) er professor i etik og teknologi ved the Hertie School of Governance i Berlin. Derudover er hun lektor i datalogi ved the University of Bath samt forfatter til en lang række forskningsartikler om kunstig intelligens, etik og regulering. ILLUSTRATION: Besøgende på en messe for offentlig sikkerhed i Beijing bliver filmet af ansigtsgenkendelseskameraer understøttet af kunstig intelligens, d. 24. oktober 2018 [Foto: Nicolas Asfouri/AFP/Ritzau Scanpix]