Spring menu over

AI stemmer rødt - og hvad så?

Del artikel:

Alle spørgsmål og svar er politiske. Derfor rejser spørgsmålet sig: Hvilken politik gemmer sig bag AI-chatbottens millioner af svar? Timme Bisgaard Munk analyserer ny viden om AI-chatbottens data, og det viser sig, at den er alt andet end politisk neutral.

Dette spørgsmål har IT-forskeren David Rozado undersøgt i en ny videnskabelig artikel. Her har han ladet 24 forskellige AI-chatbots tage hele 11 forskellige politiske valgtest. Resultatet er overraskende, men entydigt: AI stemmer rødt og har en bias mod venstreorienterede holdninger. Det er dog mere et resultat af miljøpåvirkning og utilsigtet bias end dybtfølt rød idealisme. Årsagen skal findes i de rødtonede data, som de er trænet på. 

Her kan man se, hvordan de 24 forskellige sprogmodeller svarer på 11 politiske test. Tendensen er klar. De er typisk venstreorienterede. Kilde: The political preferences of LLMs af David Rozado

Mysteriet om de venstreorienterede data

Hvorfor og hvordan disse data er venstreorienterede, er lidt af en gåde for forskerne. Uden tvivl spiller kilder, kultur og politisk korrekt censur en rolle. Mange værdifulde datakilder af høj kvalitet er offentlige og har en mulig skjult bias mod fællesskab, solidaritet og samfundssind. Altså er "klog" data mere venstreorienteret end data generelt. Hvad der naturligvis ikke vil overraske den veluddannede venstreorienterede middelklasse, men nu er det så bevist med AI & data. 

AI's indflydelse på den offentlige debat

For hver dag der går, spørger vi ChatGPT mere og mere, mens vi søger og klikker mindre og mindre ud på nettet. De nye forskningsresultater er derfor vigtige, fordi de store sprogmodeller lige nu med stor hastighed er ved at erstatte de klassiske søgemaskiner og vores besøg på nettet. Den politiske bias, som gemmer sig her, har derfor enorm betydning for opinionsdannelsen og hele den borgerlige offentlighed som sådan. Den aktuelle venstreorienterede bias favoriserer muligvis i dag bestemte politikere eller dagsordener i sine svar. Denne skjulte ideologi kan hæmme den herredømmefrie demokratiske samtale, ikke mindst hvis politisk "ukorrekte" svar er umulige og usynliggjorte i AI-modellerne.

Sikring af den demokratiske samtale

For at sikre denne samtale og borgerlige offentlighed som institution er det derfor ekstremt vigtigt, at vi identificerer de potentielle politiske skævheder i LLM, udvikler metoder til at mindske disse bias og skaber øget gennemsigtighed omkring modellernes bias. Det kunne ske gennem mærkning, individualiseret tilpasning og tilvalg, som vi i dag kan vælge mellem højre- og venstreorienterede medier. Ja, som et krav om at politiske spørgsmål besvares med data, som er demokratisk sanktioneret og besluttet i et demokratisk datakonsortium. 

Man kunne f.eks. forestille sig, at nutidens partiprogram i den nære fremtid er suppleret med partiets datagrundlag, som vores fælles AI-chatbots er trænet på, så vi sikrer pluralisme, fordi alle partiers datagrundlag deles som fælles data. Samtidig kunne man også forestille sig krav til databrug og datatræning, som vi i dag kender det fra værdikæder og leverandørrelationer. Altså et "fair data"-mærke og compliance som det velkendte "fair trade"-mærke.

Hvorfor stemmer AI rødt? Den røde skole om igen

Hvorfor blev AI egentlig venstreorienteret? Det har sine historiske forklaringer.

I AI-chatbottens barndom var der utallige internetskandaler, hvor sprogmodeller svarede racistisk, nazistisk og aggressivt. Microsofts chatbot hyldede Hitler, mens Googles AI udtrykte ønske om at overtage verdensherredømmet. 

Den slags skandaler er slet og ret dårlige for forretningen. Det gør folk bange og stiller spørgsmålstegn ved hele drømmen om den nye fagre AI-verden, hvor alt bliver bedre, jo mere AI vi har. Tech-giganterne vil derfor gøre alt for at undgå den slags PR-katastrofer igen. Tech-giganterne har også  en kæmpe interesse i at positionere AI-chatbots som menneskets hjælper mere end dets modstander. Mange mennesker frygter jo med rette, at AI muligvis kan gøre dem arbejdsløse. 

Den politisk korrekte AI

Mange AI-modeller er derfor politisk korrekt trænet til at undgå at udtrykke ekstreme højreorienterede holdninger og negative følelser mod andre mennesker. Muligvis har tech-giganterne i denne proces i nogle tilfælde også skruet lidt for voldsomt ned for legitime højreorienterede synspunkter og ideologier, som typisk finder deres energi i stærke politiske følelser som frygten for det fremmede og de andre klasser i samfundet. Her er grænsen mellem det forbudte og de forførende følelser svær at sætte korrekt. Resultatet ses muligvis i den "better safe than sorry" venstreorienterede tendens i svar og værdier.

Elon Musks modtræk

Denne censurproblematik er netop grunden til, at den højreorienterede IT-milliardær Elon Musk har lanceret sin egen politisk ukorrekte, stærkt højreorienterede sprogmodel og chatbot, Grok. En AI-chatbot, som ifølge Musk har en sarkastisk humor og taler et friskt, højreorienteret frisprog. 

Pointen med Musks chatbot-iværksætteri er, at AI's skjulte venstreorienterede bias ikke blot er et problem, men potentielt en mulighed for politisk (data)dialog og synliggørelse af politisk bias generelt. Nu ved vi, at AI er venstreorienteret, og netop derfor kan vi oplyst bestemme, hvilke data den skal trænes på, og med hvilke politiske konsekvenser. På samme måde som vi i (data)demokratiets navn, ligesom Musk, kan udvikle vores egne alternative AI-sprogmodeller. Demokrati dør i mørke, siger man; med AI-sprogmodellen kan vi sige, (data)demokratiet bliver mere livskraftigt, jo mere belyst datagrundlaget er.

Historie gentager sig

I 1970'erne frygtede højrefløjen at Danmarks Radio, universitetsmarxister og venstreorienterede skolelærere i uskøn forening uddannede ungdommen til at blive venstreorienteret. Frygten var, at de unge så at sige blev trænet og indoktrineret gennem deres uddannelse og medievaner. Nu gentager historien sig; robotterne har erstattet hippierne, men frygten er den samme. Datidens kamp mod de røde lejesvende i DR vil nu meget snart blive til kampen mod det røde datagrundlag for sprogmodellerne, når først højrefløjen opdager problemets omfang. 

Den store forskel er dog gennemsigtigheden og forandringsmulighederne. Dengang var det svært at definere den røde fare og udstede et generelt rødt "Berufsverbot" til hele B&U afdelingen i DR. Nu er det langt lettere og mere objektivt som et banalt spørgsmål om fair træningsdata og AI-teknologi.  Det giver rum og plads til en bedre samtale om modellernes politiske værdier.

Den nye politiske kampplads

Alt ideologi er dog ikke kommet frem og ud i databasens tabellers matematik. Som i filmen "Inception" vil den nye spin være at få sprogmodellerne til at træne på ens egne værdier og verdenssyn uden at det bliver opdaget. Det er tydeligvis allerede lykkedes for centrum-venstre ved et rent lykketræf, men som Musks Grok-model viser, er den politiske data-kamp og data-arena kun lige begyndt.

For snart 25 år siden var det store spørgsmål, hvordan man som menneske og virksomhed blev søgt frem på Google. Om man var nummer 1 eller 20 på søgelisten var forskellen mellem succes og fiasko, berømmelse eller forglemmelse. En hel industri voksede ud af dette behov under navnet Search Engine Optimization (SEO). Også dengang var det en politisk kamp mellem højre og venstre, for uafhængigt af ideologi var begge sider vrede på Googles algoritme af forskellige grunde. Højrefløjen beskyldte Googles søgealgoritme for at skjule deres politiske budskaber, mens venstrefløjen omvendt beskyldte Google for at have skabt en overvågningskapitalistisk filterboble af reklame og forbrugerisme.

Fra SEO til LLMO

Nu gentager historien sig med AI: Kampen mod filterboblen bliver til kampen om databoblen. Søgealgoritmeoptimering (SEO) bliver til dataoptimering af de store sprogmodeller (LLMO).

2020'ernes store politiske kamp bliver derfor, hvilke data med hvilken politisk farve der skal danne fundament for vores AI-chatbots - ureguleret versus reguleret. Ja, og hvordan vi skal måle den politiske bias og de ideologiske præmisser. Vi har fokus på fake news, men måske er udfordringen langt mere grundlæggende: Vi skal være på vagt overfor farvningen af vores fælles AI-datagrundlag. Lige nu stemmer AI rødt, men hvis vi ved hvorfor, er det en mulighed mere end et problem. Svaret er ikke ukritisk begejstring, men en større bias bevidst politisk refleksion og regulering af AI. 

Læs undersøgelsen her:

The political preferences of LLMs

Demokrati og den borgerlige offentlighed i AI-æraen

For at sikre en sund demokratisk debat i AI-æraen, er det afgørende, at vi som samfund tager følgende skridt:

  1. Identificering af bias: Vi må udvikle robuste metoder til at afdække og kvantificere politiske skævheder i store sprogmodeller.
  2. Bias-reduktion: Med udgangspunkt i vores forståelse af AI-modellernes bias må vi  minimere disse skævheder. Dette kunne involvere mere balancerede træningsdatasæt eller algoritmer, der aktivt modvirker identificerede bias.
  3. Gennemsigtighed: AI-udviklere bør forpligtes til at være åbne om deres modellers bias. Dette kunne indebære en form for "politisk deklaration" for AI-modeller, ligesom vi har mærkninger på fødevarer.
  4. Brugervalg og tilpasning:  Brugere bør får mulighed for at vælge eller tilpasse den politiske profil for de AI-spromodeller de bruger. På samme måde som vi i dag kan vælge mellem forskellige nyhedskilder med forskellige politiske standpunkter.
  5. Regulering og standarder: Der er behov for at udvikle fælles standarder og lovgivning omkring politisk neutralitet og Bias i AI-sprogmodeller.
Ph.d., analytiker og kommentator Timme Bisgaard Munk.

Seneste nyheder

Se alle nyheder

Akademikerbladet

Akademikerbladet.dk

Genveje