Dansk Magisterforening

Sig goddag til din nye chef: Algoritmen

AI-teknologi til overvågning af medarbejderne begyndte med platformsarbejdet, men er nu også er ved at blive indført på traditionelle arbejdspladser, siger den belgiske forsker Simon Taes. © Illustration: Akademikerbladet vha. Dall-E 3.

Af Sven Johannesen
Del artikel:

Algoritmebaseret management betyder, at alt fra lagerarbejdere til bankrådgivere nu bliver instrueret og overvåget af AI. Men algoritmerne er uigennemskuelige og urimelige, advarer en belgisk forsker.

I 2021 var Ubers algoritme på anklagebænken i Amsterdam.

Et hold britiske Uber-chauffører havde med hjælp fra deres fagforening lagt sag an mod Uber, hvis europæiske hovedkvarter ligger i Holland, fordi Ubers algoritme fra den ene dag til den anden havde smidt chaufførerne af deres profiler, uden anden begrundelse end at de havde vist ”svigagtig adfærd”.

Da chaufførerne forsøgte at få en forklaring fra Uber på, hvad der lå bag firmaets vurdering, løb de panden mod en mur.

”Uber gav reelt ikke chaufførerne nogen konkret forklaring på, hvorfor algoritmen havde deaktiveret deres konti. Med retssagen forsøgte chaufførerne at tvinge Uber til at argumentere for deaktiveringen,” siger den belgiske advokat i arbejdsret, Simon Taes, der i disse uger lægger sidste hånd på sin ph.d. om AI og arbejdsret.

Et springende punkt var, om Uber kunne argumentere for, at der havde været et menneske inde over beslutningen om at deaktivere profilerne. EU-lovgivning forbyder nemlig “automatiseret beslutningstagning,” hvor en virksomhed overlader væsentlige beslutninger som for eksempel at fyre en medarbejder til en kunstig intelligens.

Ved den første retsinstans fik Uber medhold, fordi firmaet hævdede, at en af deres ansatte havde taget den endelige beslutning om at fyre chaufførerne. Men da chaufførerne appellerede, fik de medhold ved næste instans, som lagde vægt på, at Ubers beslutning ikke var en konsekvens af en meningsfuld menneskelig intervention, fordi den ansvarlige Uber-medarbejder var placeret i Polen. Der var reel tale om en automatiseret beslutning, lød dommen.

”Retten lagde vægt på, at der ikke var tale om en meningsfuld menneskelig intervention, hvis man ikke kan forklare den, og hvis de personer, der bliver fyret, ikke kan mødes med en person, som de kan appellere algoritmens beslutning til,” siger Simon Taes.

Chaufførerne var med andre ord blevet “robo-fyret,” og Uber blev beordret til at give oplysninger om de konkrete faktorer, der førte til beslutningen om at deaktivere deres konti.

Algoritmisk management bruges til at disciplinere de ansatte ved at overvåge, hvor de er, om de opfører sig ordentligt, og om de udfører deres job ordentligt

Simon Taes bruger sagen som et eksempel på, hvor indviklet og uigennemsigtigt arbejdsret kan blive, når multinationale virksomheder anvender AI-baserede programmer til at evaluere løstansatte.

Samtidig er retssagen mod Uber ifølge Simon Taes kun en forsmag på nogle af de problemer, vi kommer til at stå overfor i fremtiden.

For i dag er det langt fra kun Uber-chauffører eller andre medarbejdere fra platformsøkonomien, der får deres arbejdsopgaver defineret og evalueret af en algoritme. Noget som han også kommer ind på i forskingspapiret Algorithmic management and collective bargaining, som han i februar udgav i European Review of Labour and Research sammen med den italienske forsker Valerio de Stefano.

“En meget interessant udvikling er, at brugen af AI-værktøjer til at styre de ansatte ikke kun foregår i platformsøkonomien, men at teknologien nu også er ved at blive indført på traditionelle arbejdspladser. Det kan både være på lagerarbejdspladser, men også som eksempelvis ’databaseret HR’ i mere videnstunge virksomheder,” siger Simon Taes.

Databaseret HR dækker over AI-programmer, hvis formål er at overvåge, instruere og evaluere de ansatte. Tanken er, at en AI kan udføre sådanne opgaver mere effektivt og metodisk, samtidig med at der kan spares udgifter til at lønne en menneskelig supervisor.

“I Belgien oplever ansatte i banker og finansielle institutioner i stigende grad, at de modtager ordrer fra en app om, hvilke af deres klienter de skal holde møde med og hvornår. De har mindre kontakt med en menneskelig mellemleder i det daglige og bliver i stedet mikromanaget af en app. Det er en udvikling, vi vil se mere af i de kommende år.”

Overvågning og disciplinering

Algoritmisk management er altså en metode, som arbejdsgivere kan bruge til at styre de ansatte. Både i forhold til at instruere dem i, hvilke opgaver de skal udføre, men også i forhold til at evaluere, om deres performance er god eller dårlig.

”Sidst, men ikke mindst kan algoritmisk management bruges til at disciplinere de ansatte ved at overvåge, hvor de er, om de opfører sig ordentligt, og om de udfører deres job ordentligt. Hvis ikke kan algoritmen i ekstreme tilfælde anbefale, at de ansatte skal fyres,” siger Simon Taes.

Problemet er, at AI-softwaren langt hen ad vejen ikke forklarer sine valg.

“Sagen er, at vi ofte ikke ved, på hvilken baggrund disse algoritmer træffer deres beslutninger, og det gør arbejdsgiveren heller ikke. Og når jeg spørger softwareingeniører bag programmerne, hvordan deres algoritme træffer beslutninger, svarer de tit at, ´det ved vi ikke’, for algoritmen lærer hele tiden, lidt ligesom et menneske lærer. Spørgsmålet er, om det overhovedet er muligt præcist at forklare, hvordan en AI kommer frem til en beslutning? Det er faktisk meget svært,” siger Simon Taes.

Samtidig kan algoritmen være lige så fyldt med fordomme som mennesker. Et mere kendt eksempel er den kunstige intelligens, som Amazon i 2018 brugte til at hjælpe sig i ansættelsesprocessen.

“Det viste sig, at AI-værktøjet næsten kun anbefalede Amazon at invitere mandlige kandidater til jobsamtale. Den kunstige intelligens havde baseret sin viden på at gennemgå data om de medarbejdere, der allerede var ansat, og fordi der i forvejen arbejdede mange mænd på Amazon, så reproducerede AI'en det mønster. Den lærte så at sige at diskriminere kvinder,” forklarer Simon Taes.

Serie: Er kunstig intelligens et ægte nybrud?

Med ChatGPTs globale sejrsgang er kunstig intelligens rykket fra snævre forskercirkler og Hollywood sci-fi og durk ind i den offentligt debat.

Akademikerbladet dykker i denne serie ned i teknologien og dens faldgruber, potentialer og dilemmaer. Vi forsøger at skære igennem hypen og undersøger, hvad der er anderledes ved den nye teknologi, og hvordan den vil præge vores arbejdsliv.

Algoritme-bonus

Amazon endte med at skrotte den omstridte AI, men her fem år senere findes der en lang række programmer på markedet, der kan stå for den første screening af jobansøgninger.

I andre programmer holder AI'en også øje med, om man arbejder eller driver den af, hvorefter den kan komme med en anbefaling af, hvem der skal forfremmes eller irettesættes.

“Du har programmer, som analyserer dit webcam, din skærm og din tastaturaktivitet og så videre. Det tjekker, om du er, hvis du arbejder, hvad du laver. Teknologien giver lederen en kæmpe mulighed for at monitorere de ansatte.”

Er det en god eller dårlig ting?

“For medarbejderen er det mest dårligt. Hvis du arbejder med en algoritme, der konstant monitorerer din opførsel og performance, så vil det jo begrænse din autonomi, fordi du jo ellers risikerer at få en dårlig bedømmelse. Det vil putte dig under et stort pres, fordi du hele tiden skal sikre dig, at du følger algoritmens instrukser.”

Hvis du arbejder med en algoritme, der konstant monitorerer din opførsel og performance, så vil det jo begrænse din autonomi

Men kan en algoritmes overvågning ikke være den enkelte medarbejders sikkerhed for, at hans chef ved, at han udfører sine opgaver, eller kan se, når medarbejderen giver den en ekstra skalle?

“Problemet, når der mangler et menneske i loopet, er, at en algoritme kan være meget firkantet med, hvad den måler, og hvad den ikke måler. Det er grunden til, at jeg er bekymret over fremkomsten af programmer, som har til formål at træffe beslutninger om bonusser og forfremmelser, for eksempel baseret på databehandling om, hvordan folk klarer sig på arbejdet. Spørgsmålet er også, om en algoritme virkelig kan vurdere, hvordan du arbejder ved at måle tid og tal? Det tror jeg ikke. Jeg kan godt forstå, at virksomheder har en sådan tilgang ud fra økonomiske overvejelser, men i mine øjne er det helt galt, at et AI-værktøj skal bestemme, hvem der skal forfremmes, og hvem der ikke skal.”

Simon Taes mener, at der er stort behov for en klar lovgivning på området.

“Flere og flere virksomheder tilbyder de her værktøjer, men ingen aner, om deres udregninger rent faktisk er valide eller ej. Det er virkelig skræmmende.”

Den sorte boks skal åbnes

Behovet for at regulere algoritmisk management bliver ikke mindre af, at feltet lige nu er i en juridisk gråzone.

“Lige nu har vi EU-lovgivning, der regulerer AI, men den handler mest om de mere tekniske aspekter, hvilket selvfølgelig er vigtigt, men som ikke rigtig regulerer, hvordan AI bruges på en arbejdsplads,” siger Simon Taes.

Forvirringen bliver heller ikke mindre af, at der hersker usikkerhed om, hvordan man skal kategorisere den nye teknologi.

“Er det en maskine, et værktøj eller noget arbejdsudstyr? Eller noget helt fjerde? Der er stor uenighed om, hvordan man skal definere AI, og det bliver diskuteret en del. Usikkerheden gør det svært for domstolene, for som lovgivningen er, har retssager om algoritmisk management meget forskellige udfald, fordi domstolene ikke helt ved, hvordan de skal tilgå sagerne. Klarere regler vil derfor ikke kun være til hjælp for den enkelte ansatte og virksomhederne, men også for selve retssystemet.”

Hvad er det konkret, du efterlyser?

“Vi er nødt til at lave lovgivning, der åbner den sorte boks i de her værktøjer, så vi ved, hvordan de fungerer, og hvordan de indsamler og behandler data. Det er svært, fordi systemerne jo ofte er bygget til at udvikle sig ved at lære. Men jeg synes som udgangspunkt, at man skal kunne forklare alle systemets beslutninger, og hvis du ikke kan det, så er systemet uigennemsigtigt, og det kan være farligt.”

Vi er nødt til at lave lovgivning, der åbner den sorte boks i de her værktøjer, så vi ved, hvordan de fungerer

“Derudover er vi nødt til at uddanne ikke kun de arbejdsgivere, der administrerer de her managementsystemer, men særligt de ansatte, der er underlagt dem. Det er vigtigt, at medarbejdere er fuldstændig klar over ud fra, hvilke kriterier de bliver overvåget og bedømt, så de ved, hvornår de risikerer at træde ved siden af. Du er nødt til at kende reglerne, så du ved præcist, hvorfor AI'en giver din kollega den forfremmelse, som du gerne ville have haft,” siger Simon Taes.

Samtidig står fagforeninger inden for forskellige brancher med en unik mulighed for at spille en afgørende rolle i at regulere arbejdsgivernes brug af algoritmisk management, mener han.

“For mig er det ret tydeligt, at fagforeningerne har en masse information om, hvad der foregår på arbejdspladserne. Her i Belgien undersøger fagforeningerne omfanget af overvågning, og de har også fingeren på pulsen, hvis en medarbejder bliver uretmæssigt fyret. Netop fordi de er til stede på de enkelte arbejdspladser, er fagforeningerne godt positioneret til at forhandle med arbejdsgiverne om, hvordan den nye teknologi kan gøres transparent.”

Kan du overhovedet se nogle positive konsekvenser ved algoritmisk management?

“Hmm, det er vel positivt, hvis den rent faktisk hjælper dig med at bevise, at du har gjort dit arbejde godt. Men lige nu synes jeg, at der er mange flere risici end positive muligheder, fordi vi ikke ved, hvordan teknologien fungerer. Selvfølgelig bør vi ikke bare forbyde den, men vi er simpelthen nødt til at håndtere risiciene. Det handler i sidste ende om arbejdstagernes velbefindende.”

}