Dansk Magisterforening

Skattestyrelsen mørklægger AI-overvågning af danskerne

Skatteminister Jeppe Bruus (S). © Foto: Jonathan Damslund/Ritzau Scanpix.

AI Af Thomas Bøttcher
Del artikel:

Skattevæsenet har fået grønt lys til at bruge kunstig intelligens til at holde øje med borgerne på Facebook og Den Blå Avis. Nu afviser Skattestyrelsen at forklare formålet med 14 af dens AI-systemer.

Der er tale om næsten total mørklægning.

Offentligheden må ikke få indsigt i en række AI-systemer, som Skattestyrelsen de sidste par år har udviklet, og som behandler enorme datasæt med oplysninger om borgere og virksomheder fra danske myndigheder og potentielt også fra platforme som Facebook og Amazon.

Det fremgår af et svar fra Skatteforvaltningen til Datatilsynet. Skatteforvaltningen henviser til, at oplysninger kan undtages fra aktindsigt, hvis en udlevering kan skade den offentlige kontrol, og altså bruges til at omgå skattekontrollen.

Svaret fra Skattestyrelsen er givet i forbindelse med en aktindsigt til Akademikerbladet i Datatilsynets kortlægning af danske myndigheders AI-løsninger.

Konkret afviser Skattestyrelsen af oplyse formålet med 14 ud af 23 AI-systemer, som er i brug eller under udvikling. I 7 af AI-systemerne vil myndigheden ikke oplyse, hvilke typer af personoplysninger der udgør datagrundlaget.

I 4 tilfælde vil man end ikke oplyse navnet på AI-modellen.

Skattestyrelsen vil altså alene bekræfte eksistensen af modellerne, samt at de bruger store mængder af personoplysninger om ”økonomiske forhold” som datagrundlag.

Forplumrer retssikkerheden

Ifølge Marya Akhtar, juridisk chef hos Institut for Menneskerettigheder, er Skattestyrelsens hemmeligstempling af sin AI-overvågning stærkt bekymrende.

”Vi har et demokratisk og retssikkerhedsmæssigt problem, når offentligheden ikke kan vurdere og tage stilling til, hvordan en myndighed forvalter sin opgave”, siger hun.

Vi har et demokratisk og retssikkerhedsmæssigt problem

Marya Akhtar, juridisk chef, Institut for Menneskerettigheder

Det fremgår af Skattestyrelsens indberetning til Datatilsynet, at flere af modellerne kommer med ”anbefaling til visitering” på baggrund af ”risikoscoring” af skatteydere. I databeskyttelsesforordningen kaldes dette ”profilering”, dvs. en automatisk evaluering af personoplysninger.

Det svarer dybest set til algoritmer, der placerer borgere i røde, gule og grønne kategorier ved at samkøre rigtig mange data. Derfor burde skattevæsenet udvise langt større åbenhed, mener Institut for Menneskerettigheder.

”Selv om profileringen kun bruges som beslutningsstøtte, ved vi, at det kan føre til bias. Og så er der black box-problemet. Algoritmerne træffer ganske enkelt valg, som ikke bliver forklaret, hvilket er det modsatte af at forklare alle sagsskridt, som forvaltningsmyndigheder skal,” siger Marya Akhtar.

Ifølge hende illustrerer sagen, at der er behov for en ændring af offentlighedsloven.

”Selv om man må have forståelse for at myndighederne ikke kan videregive oplysninger, der kan bruges til at omgå kontrol, har vi et stort retssikkerhedsmæssigt problem, hvis man end ikke vil komme med nogle generelle beskrivelser af, hvad man foretager sig," siger hun.

Høster data i blinde

I 2021 vedtog Folketinget en lovændring, der har givet Skatteforvaltningen grønt lys til at indsamle og samkøre ”alle nødvendige oplysninger” fra andre myndighedens dataregistre og offentligt tilgængelige datakilder, når myndigheden finder det nødvendigt.

Den beslutning er der to alvorlige problemer med, mener Dataetisk Råds formand, jurist Johan Busse.

”For det første valgte man at droppe forvaltningsprincippet om, at offentlige myndigheder kun skal indhente de oplysninger, de har brug for. Man fik lovhjemmel til at indsamle enorme data i blinde, så at sige, så kunstig intelligens kunne finde nogle mønstre i det,” siger han.

Folketinget var ikke oplyst om konsekvenserne og vedtog loven i blinde

Johan Busse, formand for Dataetisk Råd

"For det andet vedtog man det uden nogen kritisk debat, og det mener jeg er hovedproblemet. Folketinget var ikke oplyst om konsekvenserne og vedtog loven i blinde”, siger Johan Busse.

Han henviser blandt andet til, at en høring i folketingets skatteudvalg om lovens konsekvenser for retssikkerheden blev afholdt flere måneder efter dens vedtagelse.

Proportionalitets-forvridning

At Skattestyrelsen nu tilbageholder helt basale oplysninger om redskaberne, kalder han for en nyt og tredje problem.

”Selvfølgelig skal vi have en en effektiv skattekontrol. Men alle redskaber, som man udstyrer offentlige myndigheder med, skal gives efter en proportionalitetsvurdering, hvor mål og midler er i balance. Det blev uigennemskueligt med loven i 2021, og når vi så nu ikke engang kan få at vide, hvilke formål, der er med den kunstige intelligens, Skattevæsenet har valgt at bruge, ja så står vi pludselig med tre blinde vinkler”, siger Johan Busse.

Ayo Næsborg-Andersen, lektor ved Juridisk Institut på SDU og ekspert i persondatabeskyttelse, vurderer også, at Skattestyrelsens svar til Akademikerbladet er utilstrækkelige.

”På den ene side er der samfundshensynet, at man vil forhindre en omgåelse af skattekontrollen, og på den anden side hensynet til, at forvaltningen skal være åben. Og i det her tilfælde mener jeg ikke, det er nok at sige, at formålet med AI-modellerne er kontrol og i øvrigt ikke oplyser, hvilke typer data man indsamler. Som borger aner man ikke, hvad der foregår, selv ikke på et overordnet plan”, siger Ayo-Næsborg Andersen.

Skatteminister Jeppe Bruus har afvist at udtale sig om sagen. 

Det ved vi om AI-overvågningen

På baggrund af en kritisk rapport fra Institut for menneskerettigheder udgav Datatilsynet i oktober 2023 en kortlægning af danske myndigheders brug af kunstig intelligens.

Kortlægningen har identificeret 129 AI-løsninger i den offentlige sektor, hvoraf 41 løsninger benyttes i forbindelse med kontrol- og tilsyn.

Akademikerbladet har fået aktindsigt i 23 løsninger, som bruges eller er under udvikling i Skatteforvaltningen.

Én af de 23 løsninger, som Skattestyrelsen har givet aktindsigt i, er 'T1650-ML – Anbefaling til visitering', et maskinlæringsbaseret system, der hjælper sagsbehandlere med at kontrollere skatteyderes oplysninger.

AI-systemet kan ifølge aktindsigten ”forudsige” om en borger er berettiget til en skatterefusion og herefter anbefale om en sag skal frigives eller behandles yderligere.

I 14 tilfælde vil Skattestyrelsen imidlertid ikke oplyse, hvad formålet med AI-systemerne er, og i syv tilfælde, er det undtaget fra aktindsigten, hvilke personoplysninger, systemet benytter. I 4tilfælde vil Skattestyrelsen heller ikke fortælle, hvilket navn, løsningen har.

Dog er det oplyst, at: systemerne behandler oplysninger om mere end 10.000 personer, at retsgrundlaget typisk er en lovændring, der i 2021 gav myndigheder udvidede muligheder til at indhente og behandle store datamængder samt at systemerne bruges i forbindelse med sagsbehandling.

}