Tomas Pødenphant Lund: Hvad sker der, når AI overhaler os?

13.02.2025


Her er det mest bemærkelsesværdige: Vi står potentielt over for de største ændringer i menneskehedens historie – større end internettet, større end industrialiseringen. Og alligevel har vi ingen reel politisk diskussion om, hvordan vi håndterer det.

RÆSONS KOMMENTARSERIE er udenfor betalingsmuren – den kan læses af alle. Det er muligt takket være vores abonnenter: RÆSON er totalt uafhængigt og modtager ingen støtte. Et årsabonnement koster blot 250 kr./200 for studerende og pensionister (inkl. 4 trykte magasiner sendt med posten, nye betalingsartikler hver uge, rabatter, fordele og fribilletter) – klik her

Kommentar af Tomas Pødenphant Lund

I Douglas Adams’ The Hitchhiker’s Guide to the Galaxy finder supercomputeren Deep Thought svaret på “det ultimative spørgsmål om livet, universet og alt”. Svaret er 42. Problemet er bare, at ingen kan huske spørgsmålet! Måske er det dér, vi er på vej hen – at vi er ved at skabe en intelligens, der tænker hurtigere og bedre, end vi selv gør?

Men hvad betyder det, når vi ikke længere er de klogeste på planeten? Hvad gør det ved vores selvforståelse, vores arbejdsmarked, vores demokrati, vores sikkerhed – og i sidste ende vores eksistens?

AI lover banebrydende fremskridt – fra hurtigere vaccineudvikling og nye gennembrud i kræftbehandling til intelligente energinet, der kan afbøde klimakrisen. Netop denne dobbelthed – enorme muligheder og alvorlige risici – gør AI til den mest afgørende teknologi i historien. Det ligner noget, vi har set før: Sociale medier blev i begyndelsen hyldet som nøglen til en mere forbundet verden. Først langt senere blev det tydeligt, hvordan misinformation, privatlivskrænkelser og kommercielle agendaer påvirker både samfundet og vores trivsel. I dag har sociale medier en enorm indflydelse, som de fleste stater kæmper for at regulere – men altid bagudrettet. AI’s gennemslagskraft bliver endnu større og mere afgørende – både for samfundsøkonomien og borgernes hverdag, og derfor er risikoen for at gentage samme mønster reel: En tidlig omfavnelse af teknologien kan blive afløst af en sen erkendelse af, at den allerede er dybt indlejret i alt fra global handel til sikkerhedspolitik – og dermed næsten umulig at ændre eller rulle tilbage. Så er ånden ude af flasken.

I dag hjælper AI os som en slags Copilot, der kan hjælpe med at skrive kedelige e-mails. Men inden længe vil AI ikke bare hjælpe dig – den vil skrive alle dine mails, træffe beslutninger og håndtere komplekse opgaver uden menneskelig indgriben. Mange forestiller sig AI som en hjælper, der frigør os fra rutineopgaver og lader os fokusere på strategi og kreativitet. At den afskaffer kedelige jobs – men samtidig skaber nye, mere meningsfulde. Problemet er bare, at den antagelse allerede er ved at smuldre. Undersøgelser viser nemlig, at når mennesker blindt vurderer idéer fra både AI og mennesker, bliver AI’s idéer bedømt som de bedste.

Kort sagt: AI viser sig at være mere kreativ end os – og hvorfor skulle den ikke være det? Menneskelig kreativitet handler i høj grad om at kombinere eksisterende viden på nye måder.
Det samme gør AI – bare hurtigere og mere effektivt. Men hvad sker der, når AI ikke bare er klogere, men også får en egen vilje?

Den sidste opfindelse – nogensinde?

Mange AI-eksperter taler om, at vi nærmer os “Humanity’s Last Invention” – den sidste store opfindelse, vi nogensinde kommer til at lave: En AI, der overgår os kognitivt, vil ikke bare hjælpe os med at opfinde nye ting, men vil selv stå for udvikling og teknologiske gennembrud på en måde, vi ikke længere forstår eller styrer.

AI er ikke neutral. De modeller, vi træner, bliver præget af de data og den finetuning, vi giver dem. En kinesisk AI, DeepSeek, undgår at tale om Tiananmen-massakren.

Amerikanske ChatGPT er tidligere blevet beskyldt for at være venstreorienteret . men en ny kinesisk (!) undersøgelse tyder på, at det har ændret sig. Mine egne tests viser også en udvikling – hvor ChatGPT tidligere klart støttede Ukraine-hjælp, er svarene nu ofte mere neutrale. Dette følger USA’s mere pragmatiske tilgang til konflikten. Det antyder, at AI-modeller tilpasser sig aktuelle politiske strømninger frem for kun at bygge på historiske data. ChatGPT minder pludselig om censureret kinesisk stats-tv, hvis man beder den opsummere en kritisk artikel om Sam Altman, direktøren for OpenAI, firmaet bag ChatGPT. Samme Altman har i øvrigt udtrykt “nervøsitet” i forhold til AI’s indflydelse på valg.

 

En AI, der overgår os kognitivt, vil ikke bare hjælpe os med at opfinde nye ting, men vil selv stå for udvikling og teknologiske gennembrud på en måde, vi ikke længere forstår eller styrer
_______

 

De kulturelle normer, vi lægger ind i AI, er ofte bevidste – men kan også være en ubevidst konsekvens af træningsdata. Det er et enormt problem, for selv i dag er det uigennemsigtigt, hvordan AI når frem til sine konklusioner. Når AI bliver selvforbedrende, kan vi ende i en situation, hvor vi ikke længere ved, hvilke normer og værdier den arbejder ud fra. Og hvis vi ikke engang forstår de mekanismer, vi selv har bygget ind, hvordan kan vi så nogensinde forstå de mekanismer, den selv skaber? Her støder vi på det såkaldte alignment-problem: Hvordan sikrer vi, at AI fortsat afspejler menneskelige værdier, når den udvikler sig selv? Og hvilke værdier ønsker vi egentlig at bevare?

Hvad de færreste måske helt er klar over, er, at AI ikke primært programmeres, men trænes. Det betyder, at dens beslutninger ofte opstår på måder, vi ikke fuldt ud forstår – en black box, selv for dem, der har udviklet den. Ilya Sutskever, en af de mest centrale skikkelser i AI-udviklingen, har sagt, at jo tættere vi kommer på reel ræsonering i AI – et afgørende skridt mod selvforbedrende systemer – desto mindre forudsigelig bliver den for os.

Vi ser allerede tegn på det:

– Skakcomputere vælger træk, der virker irrationelle for selv de bedste stormestre – indtil de vinder partiet
– Chipdesign udviklet af AI ser forkerte ud for ingeniører, men viser sig at fungere bedre end menneskeskabte designs

Skal vi insistere på, at vi forstår, hvordan AI når frem til sine konklusioner? Eller skal vi bare acceptere, at den har ret, fordi den gang på gang viser sig at tage bedre beslutninger, end vi gør?
Det er ikke ulig kvantemekanik, hvor de fleste mennesker må acceptere, at teorierne er sande, selvom vi ikke intuitivt forstår dem. Men i modsætning til kvantemekanik har AI direkte magt over vores liv. Og man kan spørge, om ”kunstig intelligens” egentlig er det rette navn. Måske er “digital intelligens” mere dækkende for den form for tænkning, der ikke blot efterligner mennesket, men i stigende grad tænker hurtigere og mere effektivt end os.

Hvad skal vi så?

AI’s indtog er ikke blot en ny teknologisk udvikling – det er en kognitiv revolution, der vender op og ned på, hvordan vi forstår os selv. Tidligere handlede teknologiske fremskridt primært om at løfte os op ad Maslows behovspyramide: sikre vores overlevelse, vores sikkerhed og vores sociale tilhørsforhold. Nu står vi over for en helt ny situation: For hvad skal vi egentlig bruge vores tid på, når AI kan udføre alt det, vi før troede var vores unikke domæne? Vi må se i øjnene, at en stor del af befolkningen – også de højtuddannede – snart kan opleve, at deres evne til at skabe værdi bliver overhalet af AI, der kan klare opgaver hurtigere, billigere og bedre.

Nogle håber, at denne udvikling vil frigøre os fra arbejde, så vi kan dedikere os til kunst, filosofi og personlig udvikling. Men det er langt fra givet, at verden vil forme sig sådan. Den uundgåelige konsekvens af denne teknologiske omvæltning er en skærpet økonomisk ulighed. De, der ejer og kontrollerer AI, vil opnå en uhørt magt og rigdom, mens resten af befolkningen risikerer at blive marginaliseret.

 

Vi må se i øjnene, at en stor del af befolkningen – også de højtuddannede – snart kan opleve, at deres evne til at skabe værdi bliver overhalet af AI, der kan klare opgaver hurtigere, billigere og bedre
_______

 

Kan Europa andet end tabe kapløbet?

Spørgsmålet er ikke, hvem der vinder AI-kapløbet – men hvem der har råd til at tabe. At være først med AI giver enorme fordele. Vi kan allerede se konturerne af en ny klasse af AI-baroner, ligesom oliebaronerne engang tjente formuer på fossile brændstoffer. Samtidig kan hele nationer føle sig fristet til at presse udviklingen yderligere for at fastholde eller opnå dominans. Når først-mover-fordelen er så massiv, kan det skabe en “hurtigere end ansvarlig”-mentalitet, hvor hensynet til forsvarlig udvikling og alignment må vige for jagten på profit og magt.

Der investeres allerede massivt i infrastruktur, datacentre og energi, og vi ser konturerne af en global kamp om ressourcer på nationalstatsniveau. Europa har hurtigt indført beskyttende lovgivning, men risikerer at sakke bagud i kapløbet om strategiske ressourcer. Samtidig må USA’s voksende interesse for Grønland nok også ses i lyset af de sjældne jordarter i undergrunden – afgørende for AI og den nødvendige infrastruktur.

Men hvem har råd til at betale regningen for de mennesker, der mister deres arbejde? Hvis AI’s gevinster bliver koncentreret på få hænder, kan nationalstater blive nødt til at omfordele værdierne for at sikre økonomisk stabilitet. Men det kræver, at de overhovedet har indtægterne til det. Hvis Europa sakker bagud og bliver afhængig af at købe AI-tjenester fra USA eller Kina – eller i værste fald bliver blokeret fra at købe dem – kan vi stå over for en økonomisk nedtur, der gør os relativt fattigere end de lande, der ejer og kontrollerer teknologien.

Det betyder, at AI ikke bare er en teknologisk konkurrence – det er et økonomisk kapløb, der afgør, hvilke nationer der kan opretholde en rimelig levestandard for deres borgere.

Mens Europa har været hurtigt ude med regulering, er det bagud på investeringer. Det forsøger EU nu at rette op på: På AI Action Summit i Paris forleden annoncerede EU en €200 mia. AI-investering, der skal gøre Europa til et stærkt alternativ til USA’s private AI-udvikling. Men samtidig afviste både USA og Storbritannien at underskrive en international erklæring om åben og etisk AI, angiveligt af hensyn til national sikkerhed. Den amerikanske vicepræsident J.D. Vance understregede, at USA vil dominere AI-udviklingen gennem kontrol over chips, software og regler – og dermed efterlade Europa i en svagere position.

Men spørgsmålet er, om vi har lovgivet for tidligt og investeret for sent – og om vi i forsøget på at beskytte os selv har gjort os mere sårbare.

Er løbet for sikker udvikling af AI allerede kørt?

Flere eksperter mener at kapløbet om at udvikle stadig mere avancerede AI-systemer sker så hurtigt, at vi reelt ikke længere kan bremse processen. Vi kan lave henstillinger og regulering, men i sidste ende må vi måske blot håbe, at det går godt. Hvis aktører – både private virksomheder og stater – vil risikere alt for at vinde AI-kapløbet, er det svært at forestille sig en bred global enighed om at bremse eller nedskalere udviklingen. Alt imens fjerner den ene AI-virksomhed efter den anden forbehold for statslig militær anvendelse af kunstig intelligens.

Og når AI kombineres med robotteknologi, får vi potentialet for autonome militærsystemer: droner, landkøretøjer og måske humanoide enheder, der ikke kræver menneskelig indgriben under missioner. Ingen stat ønsker at stå tilbage, hvis rivalen råder over en “maskinhær,” der kan indsættes uden hensyn til menneskelige tab. Og uden et menneskeligt led i beslutningsprocessen kan der ske fejlagtig identifikation af mål, eskalerede konflikter eller “overreaktioner” baseret på algoritmers vurderinger.

Hvem griber så ind? Hvis AI’s logik delvist er uforståelig, og systemet handler efter parametre, man ikke har fuld kontrol over, kan et utilsigtet våbenkapløb eskalere – uden tydelig mulighed for tilbageførsel.

Hvor er den demokratiske samtale?

Her er det mest bemærkelsesværdige: Vi står potentielt over for de største ændringer i menneskehedens historie – større end internettet, større end industrialiseringen. Og alligevel har vi ingen reel politisk diskussion om, hvordan vi håndterer det.

AI’s udvikling sker i en hastighed, som politikere og samfundsinstitutioner slet ikke kan følge med i. Mens vi diskuterer småreguleringer og etik, udvikler AI sig til et niveau, hvor den måske om få år er helt uden for vores kontrol. Det er ikke bare en teknologisk udfordring. Det er en eksistentiel krise.

Hvad gør vi nu? Vi har aldrig før skullet definere os selv i en verden, hvor vi ikke var de klogeste. Vi har altid set os som de rationelle, de kreative, de strategiske. Men når AI kan overgå os i alt det, hvad er vi så? Måske er det nu, vi skal begynde at tage spørgsmålet alvorligt. Ellers ender vi måske med at få et svar, vi ikke forstår.

 

Når AI kan overgå os i alt det, hvad er vi så?
_______

 

Tomas Pødenphant Lund (f. 1971) er ekspert i læring. Forfatter til Superlæring 1: Læringens DNA (https://superlaering.dk) og selvstændig konsulent i Elearningspecialist (https://elearningspecialist.com/), hvor han arbejder med læring, adfærdsdesign og teknologi.

ILLUSTRATION: Paris, 11. februar 2025: Frankrigs præsident, Emmanuel Macron, ‘fistbumper’ en robot ved Artificial Intelligence Action Summit i den franske hovedstad [FOTO: Aurelien Morissard/AP/Ritzau Scanpix]