Filosof: Det er en opskrift på katastrofe, når Danmark udvikler AI uden at have styr på etikken
Laura Haaber Ihle arbejder som forsker ved Harvard University og Northeastern University, hvor hun forsker i filosofi i forbindelse med AI. © Foto: Harvard University
Danmark er trods sine store digitale ambitioner langt tilbage, når det kommer til de etiske dimensioner af AI, lyder det fra filosof og lektor Laura Haaber Ihle, der forsker i AI-etik ved Harvard University.
Mens AI er godt i gang med at snige sig ind i alle dele af vores samfund, udvikler private virksomheder og offentlige institutioner støt nye måder at høste det produktivitetspotentiale, som de nye teknologier indeholder.
Men spørger man tech-filosoffen Laura Haaber Ihle, mangler vi i Danmark det grundlæggende etiske fundament, som fremtidens AI-produkter skal bygges på.
“Danmark har en ambition om at være et af verdens mest digitaliserede lande. Men vi er langt tilbage når det kommer til at skabe stabile etiske rammer for vores udvikling og brug af kunstig intelligens. Det virker slet ikke som om, at beslutningstagerne tager den opgave seriøst nok,” siger Laura Haaber Ihle.
Diskussionerne om etisk AI og ansvarlig kunstig intelligens fylder ellers en del internationalt og særligt i USA, hvor Laura Haaber Ihle forsker i AI-etik og rådgiver nogle af verdens største virksomheder.
Når Laura Haaber Ihle følger udviklingen i Danmark, oplever hun dog en begrænset etikdebat.
“Når jeg ser på danske offentlige AI-projekter, så savner jeg, at man systematisk har tænkt etik ind i designprocessen for at forhindre, at man ikke kommer til at lave noget, som er direkte skadeligt eller etisk uforsvarligt. Når jeg spørger, hvilke forholdsregler der er taget, så er svaret enten ’ingen’ eller nogle ad hoc-løsninger, såsom at der er sendt breve ud til borgerne for at høre deres mening om et projekt. Det er da fint at inddrage borgerne, men man skal altså gøre mere end det. Det er, som om, man slet ikke aner, hvad der bliver diskuteret internationalt omkring AI-etik.”
Overrasker det dig?
“Ja, i den grad. Især fordi vi jo har en stat, som er ret omfattende. Og det mener jeg på en god måde.”
Det er én ting, at bruge AI til at finde ud af, hvor du skal anlægge nye parkeringspladser. Det er noget andet, hvis du bruger det i forbindelse med vurderinger, der i sidste ende kan føre til tvangsfjernelse af børn – selv hvis AI’en ikke tager beslutningerne alene, siger Laura Haaber Ihle.
Hun henviser blandt andet til forskningsprojektet ’Underretninger i Fokus’, der har som mål at udvikle et AI-baseret-værktøj til at hjælpe sagsbehandlere med at analysere indberetninger om børn. Og som i juni 2023 blev ændret, da der blev rejst tvivl om projektets lovlighed, så det ikke skal testet på virkelige sager.
“Det er utroligt, at der ikke er nogen, der den allerførste dag kunne regne ud, at projektet var dybt etisk problematisk. Hvis de havde puttet det igennem en eller anden form for etisk risikoanalyse, så havde alle parametre jo bonet ud. Der er alting galt med det projekt, og det ville de have vidst, hvis de havde etableret en etisk governance-struktur, inden de gik i gang. Men det gør man åbenbart ikke i Danmark.”
Ene om algoritmen
Laura Haaber Ihles arbejde og forskning har i mange år ligget i krydsfeltet mellem filosofi og ny teknologi.
Inden hun blev tilknyttet Harvard og Northeastern University, skrev hun ph.d. om, hvordan teknologiske strukturer påvirker vores ide om, hvad god viden er, og hvilken værdi vi tilskriver sandhed. Inden da skrev hun på Roskilde Universitet speciale i filosofi om, hvordan algoritmer påvirker vores sociale strukturer og offentlige rum.
”Dengang var der næsten ingen, der interesserede sig for algoritmer, og slet ikke i filosofi. Man skulle hele tiden presse for at få lov til at lave de der ting, men heldigvis havde jeg en supergod vejleder,” siger hun.
I dag har feltet en langt større opmærksomhed, og udviklingen ser ud til at accelerere.
“Det går vanvittigt hurtigt. Så hurtigt, at reguleringen ikke kan nå at følge med. Jeg er egentlig ikke specielt interesseret i teknologi som sådan, men mere hvilke sociale strukturer der bliver skabt med den. Og lige nu er vi ved at træffe beslutninger om, hvordan en helt ny verden skal se ud. Vi står på en mark, hvor vi er i fuld gang med at anlægge de veje, huse og broer, som kommer til at definere, hvordan vi fremover bor og interagerer med hinanden.”
Hvorfor kan folk med filosofi-baggrund bidrage til forståelsen af AI?
“Det kan de, fordi udviklingen af AI i høj grad også handler om etik, og etik hører under filosofi. Etik kræver en metodisk tilgang, så man ikke er henvist til blot at stole på sin mavefornemmelse eller sit ’moralske kompas’, når man skal håndtere de etiske udfordringer. Ligesom du ikke har lyst til at blive opereret af en person, der ikke er læge, så har du heller ikke lyst til, at en masse personer med tech-baggrund skal sidde og vurdere, hvad der er rigtigt og forkert, når de udvikler ny teknologi. Der er brug for en teoretisk funderet tilgang,” siger Laura Haaber Ihles.
Firmaer kommer sjældent til os af sig selv, fordi de tænker, at ’vi skal da have noget etik’Laura Haaber Ihle, tech-filosof
“Etikken er især vigtig, fordi der er så lidt regulering, fordi udviklingen går så hurtig, og fordi der er så mange åbenlyse eksempler på, at man ikke har gennemtænkt, hvilke konsekvenser forskellige teknologier kan have for helt almindelige mennesker.”
Forsker og konsulent
Laura Haaber Ihle fordeler sin tid mellem at forske i de etiske aspekter af kunstig intelligens og som konsulent for store amerikanske virksomheder, der vil arbejde med kunstig intelligens på en etisk forsvarlig måde.
“Firmaer kommer sjældent til os af sig selv, fordi de tænker, at ’vi skal da have noget etik’. Det er mere normalt, at de henvender sig, efter at de har været involveret i en eller anden skandale, hvor de eksempelvis er ’kommet til’ at videresælge brugernes data til en tredjepart, har haft et kæmpe datalæk, eller at deres systemer har været biased. Så tænker de, ’okay, vi må se at få noget etik ind over det der AI, som vi bruger’.”
Hvad gør I så, når en virksomhed dukker op og har dummet sig?
”Det kan variere meget, men det mest omfattende, vi laver, er, at udvikle og implementere en etisk governancestruktur i virksomheden i forhold til virksomhedens design og brug af kunstig intelligens. Den indeholder både overordnede strukturer, såsom etiske principper og guidelines, men også en lang række andre virksomheds- og produktspecifikke værktøjer, som sikrer etikken løbende igennem hele AI-produktets livscyklus,” siger hun.
En del af konsulentarbejdet handler også om at hjælpe den enkelte virksomhed med at definere, hvilke værdier de har, og hvordan de skal prioritere, hvis disse værdier er i konflikt med hinanden.
”Her tager vi udgangspunkt i virksomhedens nedskrevne værdier på området, som tit ikke er særligt meget andet end nogle buzzwords på hjemmesiden om transparens, fairness, beskyttelse af privatlivet etc. Men de ting skal kunne implementeres i praksis, for ellers betyder de reelt ikke noget. Og nogle gange kan de forskellige værdier være modstridende. Der kan for eksempel være et clash mellem transparens og privatlivsbeskyttelse. Man kan ikke bare stikke de ansatte et etikskema.”
En anden vigtig del af en etisk governancestruktur er at implementere mere tekniske værktøjer, der løbende overvåger, hvordan produktet fungerer, når det er i brug – blandt andet for at undgå uønsket bias.
Laura Haaber Ihle
Forsker i AI og etik ved Harvard University og Northeastern University
Hun fokuserer på erkendelsesteoretiske konsekvenser af nye teknologier og på udvikling af rammer og værktøjer for ansvarlig AI.
Det skal også fastlægges, hvad proceduren er, hvis produktet gentrænes til et andet formål, og hvilke procedurer der så skal ind over for at sikre etikken. Er det for eksempel ok, at en algoritme rammer plet 60 procent af gangene?
“Præcision er måske ikke helt så vigtigt, hvis vi snakker om at udpege parkeringspladser, men bliver megavigtig, hvis en algoritme skal assistere med at godkende en person til et lån eller vurdere, om de er berettiget til sygedagpenge i forbindelse med sygdom. Så snart vi er ude i noget, hvor det virkelig har konsekvenser for folks liv, så er det jo sindssygt vigtigt at vide, om lortet virker,” siger Laura Haaber Ihles.
Mange AI-produkter er selvlærende og udvikler sig løbende, og de når ofte deres konklusioner ved at inkludere enorme mængder data. Det kan gøre det meget svært for udenforstående at vide, hvad der egentlig foregår inde i algoritmens sorte boks. Hvordan håndterer man de udfordringer?
“Ja altså, det er også derfor, at der ikke findes nogen fornuftige mennesker, der er villige til at tildele et AI-produkt et etik-certifikat, som man får én gang for alle. I medicinalindustrien kan du efter en grundig proces få godkendt, at du kan producere og sælge en pille. Men et AI-produkt er anderledes, fordi det løbende udvikler sig. Derfor er det nødt til at være under løbende analyse. Transparens er et helt reelt problem, fordi det teknisk er svært at lave løsninger, hvor man kigger ind i maskinen og forstår, hvad der sker. Fordi hvis vi kunne forstå, hvordan maskinen arbejder, så kunne vi gøre det selv – og det kan vi ikke. Altså, vi kan ikke have så mange parametre i vores hoved, og vi kan ikke lave alle de der kæmpe beregninger og forstå, hvordan en model når til sin konklusion.”
“Så der er en masse udfordringer, men man kan trods alt lave konkrete tiltag, der løbende tester, at en AI ikke pludselig har ændret sig på en måde, hvor den kommer med helt forkerte konklusioner. Og der er mange, der arbejder på at løse explainability-problemet i forhold til kunstig intelligens.”
Ny teknologi kan jo altid bruges negativt og positivt - men er der noget, der adskiller sig, når det handler om udviklingen af kunstig intelligens fra udviklingen af andre teknologier?
“For det første adskiller de her teknologier sig ved, at de udvikler sig og kommer til konklusioner på en måde, som man ikke nødvendigvis kan forstå udefra. Og når man kombinerer det med fænomenet automation bias, altså vores tendens til at tilskrive maskiner ekstrem autoritet, selvom vi faktisk ikke personligt har indsigt i, om det egentlig virker, kan man sagtens se, hvor det kan gå galt,” siger hun.
”Man diskuterer tit, hvorvidt teknologier er neutrale. Og det bliver et meget mere indviklet spørgsmål, fordi en algoritme jo ikke bare er en hammer. Der ligger værdiprioriteringer i AI-teknologi. Så snart du laver en simpel Google-søgning, så tilskriver teknologien en værdi til noget og ikke til noget andet. Det gør en hammer ikke.”
Hvis der er nogen, der ved, hvilket sted der har overblikket over udviklingen og implementeringen af AI i det offentlige i Danmark, så må de meget gerne melde sig. Jeg har i hvert fald ikke kunnet finde detLaura Haaber Ihle, tech-filosof
Et stort problem for Danmark er ifølge Laura Haaber Ihle, at der ikke findes central myndighed, der sikrer, at AI bliver udviklet og udrullet etisk forsvarligt i det danske samfund.
”Hvis der er nogen, der ved, hvilket sted der har overblikket over udviklingen og implementeringen af AI i det offentlige i Danmark, så må de meget gerne melde sig. Jeg har i hvert fald ikke kunnet finde det,” siger Laura Haaber Ihle.
Det betyder også, at de etiske overvejelser bliver overdraget til de enkelte offentlige aktører rundt omkring i kommuner og andre offentlige instanser, der udvikler, køber eller bruger kunstig intelligens. Og som af gode grunde ikke sidder inde med den nødvendige ekspertise, når det kommer til etikken, og som derfor også risikerer at spilde ressourcer på projekter, der viser sig ikke blot at være uetiske men i visse tilfælde også ulovlige.
“Noget, der kunne være ekstremt godt i Danmark, var, at staten - når nu den er så fantastisk optaget af at være så digitaliseret - brugte ressourcer på at sikre, at det går ordentligt til. Omdan Dataetisk Råd til et ekspertråd, hvor de super kvalificerede eksperter, der lige nu sidder i sekretariatet, kan sidde i selve rådet og erstatte de af de nuværende, politisk udpegede medlemmer, der ikke nødvendigvis har særlig meget viden om hverken kunstig intelligens eller etik,” opfordrer Laura Haaber Ihle.
“Derudover skal der sættes udviklingsmidler af til at sikre, at når det offentlige skal indkøbe eller udvikle kunstig intelligens, så er man fra start til slut underlagt helt konkrete og stringente etiske governancestrukturer, der sikrer kvalitet og sikkerhed for befolkningen.”
Nogle af de her overvejelser om en mere stringent vurdering af AI-produkter indgår jo også i den AI Act, som EU barsler med. Hvad er dine tanker om den regulering, der er på vej?
“Jeg synes, det er supergodt. Men jeg tror også, at den nye lov kommer til at presse virksomheder og offentlige institutioner helt vildt, fordi de nu skal til at dokumentere, hvordan de bruger nogle typer AI i deres arbejde. Hvis det var mig, der var leder på en arbejdsplads, der brugte den mindste grad af kunstige intelligens, såsom ChatGPT, så ville jeg være helt oppe og ringe over den nye lovgivnings betydning, og hvordan jeg skal få de nødvendige governance- og compliancestrukturer på plads i en drønende fart.”
Men helt grundlæggende, er det en god ting, at der er en mere systematisk europæisk regulering på trapperne, mener hun.
“Det, der er megasmart ved den kommende AI Act er, at den, så vidt jeg ved, også gælder den AI, du køber uden for EU, for eksempel i USA. På den måde presser det også resten af verden til at overholde den nye regulering, for ellers kan de ikke sælge deres produkter i Europa.”
Er der ikke risiko for, at Europa sætter så høje krav, at vi bliver overhalet af lande med lavere standarder?
“Jo, det er muligt. Der er mange steder, hvor man ville blive mere konkurrencedygtig, hvis man fjerner regulering. Hvis vi for eksempel fjernede den fra medicinalindustrien, kunne vi sikkert tjene mange penge på sjove piller. Men det handler om, hvad det er for en verden, vi gerne vil have. Og mon ikke det nok skal gå, selv med lidt mindre konkurrenceevne?”