Dansk Magisterforening

Tre ud af fire akademikere: Politikerne skal gribe ind overfor kunstig intelligens

Af Rane von Benzon
Del artikel:

Kunstig intelligens skal reguleres, mener tre ud af fire akademikere i en ny undersøgelse.

Der er behov for politisk regulering af kunstig intelligens (AI).

Det mener tre ud af fire medlemmer af Magistrenes A-kasse i en undersøgelse, som a-kassen har lavet i samarbejde med Akademikerbladet.

Mange finder det simpelthen uigennemskueligt, hvad teknologien gør, og hvornår man må bruge det - både på samfundsplan og på arbejdspladsen.

”Man må kunne regulere området, så det er helt tydeligt, hvor det er tilladt, og hvor det ikke er,” skriver en 53-årig kvinde, der er ansat på et gymnasie.

”Jeg underviser i sprog og ser AI som en styrke, men også en falsk ven for den lærende. Vigtigt at finde ud af, hvordan AI kan anvendes på en god måde”, skriver en anden underviser.

I alt har 1140 akademikere deltaget i undersøgelsen. 74 procent svarer, at der i nogen eller høj grad bør være politisk regulering af AI og automatisering.

Thomas Ploug, professor i data- og kunstig intelligens-etik ved Aalborg Universitet, tilslutter sig akademikernes ønske.

”Nye teknologier, som er så gennemgribende og udbredes så hurtigt i et samfund, vil der typisk være problemer med,” siger han.

Fri dystopi

Det går stærkt med AI’s indtog i Danmark.

For eksempel har en undersøgelse fra Dansk Erhverv vist, at 21 procent af danskerne har brugt ChatGPT, mens 43 procent har kendskab til robotten, der kan fejre 1-års fødselsdag til november.

Fordi værktøjerne trækker på ufattelige mængder data, har de lært at håndtere et hav af forskellige situationer. Men med fordelene kommer også risici.

Der er risikoen for, at AI’en reproducerer bias fra den data, den er trænet på.

Et eksempel på algoritmernes bias leveres af Google Translate, hvor ”min kæreste er direktør” oversættes til ”my boyfriend is director” på engelsk, mens sætningen ”min kæreste laver mad” oversættes til ”my girlfriend is cooking”.

Og så er der det såkaldte black box-problem.

”Black box-problemet handler om, at AI’en kommer med en anbefaling uden at kunne forklare, hvorfor den er kommet frem til det udfald,” siger Rony Medaglia, professor i offentlig digitalisering på CBS. Den risiko er indbygget i selvlærende it-systemer.

Hertil kommer risikoen for spredningen af falske informationer, der kan svække tilliden i samfundet og forstærke ekkokamre, påpeger han.

Loven er på plads

Selvom mange peger på regulering som et svar på AI's fremdrift, så er den nye teknologi langt fra et lovløst ingenmandsland i dag.

De fleste love er nemlig teknologineutrale, og derfor omfatter de også AI, siger Hanne Marie Motzfeldt, professor i forvaltningsret og digitalisering på Københavns Universitet.

”De rammer, som retssystemet sætter for vores adfærd, gælder også, når vi anvender AI. Når man så intenst drøfter bias og black box skyldes det, at inddragelse og vægtningen i AI-systemers kriterier kan komme i konflikt med lovgivningen, uden at vi ved det,” siger Hanne Marie Motzfeldt.

Derfor er EU også på vej med et direktiv på området. Det såkaldte AI-direktiv, AI Act, afspejler, at lovgivningen i det store hele er på plads, mener hun.

Konkret er der lagt op til, at AI-værktøjer bliver inddelt i forskellige risikogrupper alt efter typen af værktøj. Jo mere risikabel en AI er, desto mere omfattende er dokumentationskravene til, at den overholder lovkravene.

”Meget forsimplet er det en regulering, der skal sørge for, at der er opmærksomhed om alle de andre regler. Det betyder for eksempel, at man skal sikre og dokumentere, at det data, man bruger i sin AI – og de output, som en AI danner – er korrekt og retvisende,” siger hun.

Lokal regulering nødvendig

AI-direktivet er i de afsluttende forhandlinger og bliver formentlig vedtaget i løbet af 2024, hvorefter medlemslandene har 24 måneder til at indarbejde direktivet i de nationale lovgivninger.

Generelt mener de tre professorer, at EU løser de grundlæggende AI-problemer med direktivet. Men det fritager ikke den enkelte virksomhed eller organisation fra at lave lokale regler, påpeger Rony Medaglia og efterspørger branchenormer.

”Når AI-direktivet træder i kraft, bør der laves retningslinjer på brancheniveau. I den akademiske verden har vi for eksempel brug for retningslinjer for, hvordan man bruger generativ AI til undervisning, hvordan man bruger det i videnskabelige publikationer osv.,” siger han.

Man kan betragte AI som en ny introvert kollega

Camilla Gregerse, forperson for DM

Den samme diskussion efterspørger Camilla Gregersen, forperson i DM og medlem af Dataetisk Råd. Hun bakker op omen politisk regulering og mener, at det er vigtigt, at den enkelte arbejdsplads snakker om, hvordan man lokalt anvender og ikke anvender AI.

”EU’s direktiv er det første skridt. Derudover er det afgørende, at arbejdspladserne og uddannelsesinstitutionerne allerede nu laver tydelige retningslinjer i samarbejde med medarbejderne for brugen af værktøjerne, så de ansatte og studerende kan være trygge ved at bruge dem,” siger hun, maner til ro og opfordrer til, at man også tager AI til sig i arbejdet.

”Man kan betragte AI som en ny introvert kollega, som man kan trække på. En kollega, som ikke skal sove, som man altid kan spørge, men som selvfølgelig kan tage fejl ligesom alle andre,” siger hun.

}