Spring menu over

10 scenarier: Sådan bør du bruge AI som offentlig kommunikatør

Christiane Vejlo Ulrik Jantzen

Christiane Vejlø, der er medlem af Dataetisk Råd, mener ikke, at arbejdet med AI kan adskilles fra en grundlæggende samtale om formål og værdier. Foto Ulrik Jantzen

Uffe Jørgensen Odde
Del artikel:

Her er ekspertrådene, der hjælper dig med at bruge AI ansvarligt og professionelt i din hverdag som offentlig kommunikatør.

Siden den generative kunstige intelligens’ folkelige gennembrud i efteråret 2022 har det for mange været lidt som at være i det vilde vesten.

For hvad må man egentlig?. 

Der er dog i dag lovgivning og anbefalinger at læne sig op ad. Eksempelvis udgav Dataetisk Råd tidligere i år rapporten “Generativ AI og offentlige myndigheder”, der forklarer, hvordan AI-teknologien virker, og hvordan det kan føre til uheldige scenarier.

Herudover er der EU’s AI-forordning, der trådte i kraft 1. august 2024 og som vil blive implementeret i dansk lovgivning frem mod 2027. 
AI-forordningen er den første lovgivning i verden, der regulerer brugen af kunstig intelligens. Og siden 2. februar i år har det været et krav, at “alle organisationer, der udbyder og idriftsætter AI-løsninger, skal sikre, at deres medarbejdere besidder tilstrækkelige AI-færdigheder.” 

Digitaliseringsstyrelsen oplyser, at kravet “gælder alle virksomheder og myndigheder, der udbyder og idriftsætter AI-løsninger.” 

Særligt for kommunikatører er det desuden relevant, at der pr. 1. august 2026 træder nye regler i kraft om transparens. 
Det betyder blandt andet, at AI-genereret tekst, lyd og video, der offentliggøres med henblik på at informere offentligheden, tydeligt skal markeres som AI-genereret.

Du kan godt bruge AI til at spare tid og få inspiration. Men du må ikke overlade opgaven til AI.

Christiane Vejlø, analytiker og ekspert i forholdet mellem mennesker og maskiner

Kultur er afgørende

Men det kan være svært for den enkelte kommunikatør at oversætte en-til-en i en dagligdag, fordi alt afhænger af en konkret vurdering. 
Derfor er der i alle organisationer brug for, at der bliver sat hegnspæle og skabt en fælles forståelse for, at ansvarlig AI-brug i kommunikation handler om mennesker, værdier og ledelse. 

Det understreger Christiane Vejlø, der blandt andet er analytiker og ekspert i forholdet mellem mennesker og maskiner samt forfatter til bøgerne “Arbejdslivets dilemmaer: AI” og “Argumenter for Mennesker”:

“Det er en ledelsesopgave, organisationen skal tage ansvar for, at der er sat rammer for, hvordan man bruger AI, i hvilke sammenhænge, og hvornår det vælges fra,” siger hun.

Christiane Vejlø, der er medlem af Dataetisk Råd, mener ikke, at arbejdet med AI kan adskilles fra en grundlæggende samtale om formål og værdier:

“Hele værdikompasset er vigtigere end nogensinde. Det skal ligge på rygraden af alle, der prompter eller bruger AI. Hvad vil vi? Hvem er vi? Hvad er vores opgave?”
AI kan være en stærk samarbejdspartner, hvis man bruger den rigtigt, forklarer hun. 

“Du kan godt bruge AI til at spare tid og få inspiration. Men du må ikke overlade opgaven til AI. Du skal være styrende. Det kræver, at man har gjort forarbejdet og ved, hvad man vil opnå,” siger Christiane Vejlø.

Men hvad gør man i konkrete hverdagssituationer?

DM Kommunikation har bedt Christiane Vejlø, der har været med til at udarbejde Dataetisk Råds rapport, om at kommentere 10 forskellige scenarier.

Brugsscenarier: Offentlige kommunikatører og generativ AI

1. Borgerbrev med AI som medforfatter
En kommunikationsmedarbejder i en kommune bruger AI til at skrive et personligt brev til en borger om en verserende sag. AI’en får at vide, hvad brevet skal
indeholde, men ikke borgerens navn. Brevet bliver redigeret og tilpasset.

Christiane Vejløs kommentar: “Det er et område, hvor potentialet for kvalitetsløft er enormt. Offentlig kommunikation til borgere lider nogle gange under at være uklar, teknisk og svært tilgængelig, og her kan AI virkelig være en hjælp. Men det må ikke blive en erstatning for menneskelig kvalitetssikring. Hvis borgeren fornemmer, at kommunikationen er skrevet af en maskine uden omtanke, risikerer man at skade relationen. Der bør desuden være åbenhed om AI’en som medforfatter".

2. AI-opsummering af politiske oplæg
Et AI-værktøj bruges til at opsummere større politiske tiltag, så de kan formidles på myndighedens site. Det sparer tid, men ingen gennemgår systematisk resuméerne før udgivelse.

Christiane Vejløs kommentar: “AI kan sagtens hjælpe med at gøre komplekse dokumenter mere tilgængelige, men det ændrer ikke på kravet om ansvarlighed. Det er indlysende, at et menneske skal læse opsummeringen igennem. Der er risiko for fejl og misforståelser. Og hvis noget går galt, er det stadig ledelsens ansvar.” 

3. Idegenerering til sundhedskampagne
AI bruges til at foreslå slogans og koncepter for en kampagne om vaccination. Et par forslag er stereotype. Kommunikatøren vælger selv den bedste idé og justerer den.
Christiane Vejløs kommentar: “AI kan være en værdifuld sparringspartner i idéfasen. Især når den bruges til at generere bredde, variation og uventede vinkler. Men det kreative ansvar ligger stadig hos mennesket. Tænk på AI som en praktikant: Du får idéer, men de skal filtreres gennem din faglighed, etik og erfaring.”

4. AI som rådgiver
En medarbejder beder AI om at “gøre denne tekst mere forståelig for mennesker med lav læsefærdighed.” AI’en forkorter og forenkler, men fjerner også faglige nuancer i processen.

Christiane Vejløs kommentar: “Forståelse og præcision må aldrig blive hinandens modsætninger. Her er prompten afgørende. Du kan godt få en tekst, der både er let og fagligt korrekt, men det kræver, at du lægger din menneskelighed og faglighed ind i prompten. Det er dig, ikke AI, der afgør balancen. Menneskelig erfaring er nødvendigt for at vurdere, hvornår forenkling tipper over i forvrængning. AI kan hjælpe, men kun hvis du ved, hvad du vil have ud af den.”

5. AI som krisekommunikatør
Under en lokal krise skal et hurtigt opslag laves til kommunens hjemmeside. En AI laver første udkast. Pga. tidspres når ingen at gennemlæse teksten grundigt.

Christiane Vejløs kommentar: “Det er her, AI virkelig kan blive farlig. Du må aldrig sende noget ud uden at læse det grundigt igennem. I dette tilfælde kan man bruge AI som en hjælp til at generere et første udkast eller endnu bedre et udkast til en kriseplan.”

6. Sociale medier: Menneske eller maskine?
AI bruges til at generere opslagstekster på Facebook og Instagram for en offentlig myndighed. De er velformulerede, men har en ensartet, upersonlig tone. Følgerne begynder at kommentere: “Er det en robot, der skriver det her?”

Christiane Vejløs kommentar: “Man skal altid være ærlig. Hvis formålet med opslag på sociale medier er at opbygge relationer, skabe dialoger eller styrke tilliden, er upersonligt AI-indhold direkte kontraproduktivt. Folk mærker det med det samme. De kan fornemme, når der ikke er brugt tid og menneskelig opmærksomhed. Og hvis du ikke gider bruge tid på mig, hvorfor skulle jeg så bruge tid på dig?”

7. Spørgeskemasvar analyseret med AI
Et stort borgerinddragelsesprojekt modtager 3.000 åbne besvarelser. AI bruges til at generere en narrativ opsummering. Det sparer analysearbejde, men resultaterne kan ikke efterprøves.

Christiane Vejløs kommentar: “Det er problematisk, hvis ikke resultater kan efterprøves eller man i det mindste kan får en forklaring på, hvorfor udkommet er som det er. AI kan godt hjælpe med at analysere mønstre og sentiment. AI har ikke erfaring. Den har aldrig siddet i en borgers sko eller oplevet problemet selv. Den kan godt analysere, men det er stadig mennesker, der skal tage ansvar for tolkning og konklusioner.”

8. Chatbot med AI til borgerkontakt
En chatbot svarer på spørgsmål fra borgere om kommunale tilbud. Den kan ikke altid skelne mellem spørgsmål, der kræver en sagsbehandlers vurdering, og dem, den gerne må svare på.

Christiane Vejløs kommentar: “Chatbots kan være gode og nyttige, men sådan et setup skal designes med skarpe grænser og tydelige formål. Hellere for mange begrænsninger end for få. Og pas særligt på, hvis fejl kan have store konsekvenser for borgeren.”

9. AI-skrevet kommunikationsstrategi
Kommunikationschefen i en region beder AI udarbejde et første udkast til en strategi for ekstern kommunikation. AI’en får adgang til tidligere strategier og aktuelle nøgletal.

Christiane Vejløs kommentar: “Det er selvfølgelig et obs-punkt, hvad man fodrer AI’en med af oplysninger. Derudover: En strategi er en ledelsesopgave. AI kan støtte processen, men aldrig definere retningen. Det lugter af venstrehåndsarbejde, hvis du bare beder AI skrive strategien. Den skal udspringe af værdier, ambitioner og refleksioner. AI kan bruges til at strukturere og samle input.”

10. Undervisning i AI med AI-genereret materiale
En offentlig styrelse laver et internt kursus i at bruge GenAI til tekstproduktion. Kursets undervisningsmateriale er... genereret af AI.

Christiane Vejløs kommentar: “Der er ikke noget galt i at bruge AI som medskaber af undervisningsmateriale, men kun hvis man ved, hvad man vil lære fra sig. Der er en læresætning, der hedder: ‘Du må kun bruge AI til det, du i forvejen ved.’ Alt for mange prompter bare løs uden at tænke: Hvad er formålet? Men det svar kommer ikke fra AI.”

 

Getty Images Vzcgwt7ff1u Unsplash Web Edit

Skarp pris på forsikringer

Som medlem af DM får du op til 27,8 % i rabat på privatforsikringer hos Alm. Brand

Seks anbefalinger til offentlige kommunikatører

1. Vær åben om AI’s rolle
Borgerne bør kunne se, hvis AI har bidraget til tekster. Det øger tilliden og understøtter borgerens kritiske læsning.

2. Bevar faglighed og kvalitetssikring
Der bør være en klar arbejdsgang, hvor mennesker validerer AI’s output. Især ved borgerrettet information.

3. Undgå stereotypt sprogbrug
Kommunikatører skal tilpasse tone og form, så output ikke fremstår for generisk eller upersonligt, hvilket kan skade et budskabs gennemslagskraft.

4. Uddan og afgræns
Myndigheder bør arbejde i lukkede miljøer og træne medarbejdere i brug og risici.

5. Kig ind i fremtiden 
Hvis du allerede ved, hvordan kommende lovgivning ser ud, så begynd allerede nu at indrette dig efter den.

6. Definer brugen 
Alle organisationer bør definere hvornår AI bruges, til hvad, hvorfor og af hvem. Derudover bør man være opmærksom på, hvilke data der anvendes. 

Kilde: Christiane Vejlø og Dataetisk Råds rapport “Generativ AI og offentlige myndigheder”

Nye regler om transparens

EU’s AI-forordning trådte i kraft 1. august 2024, og bliver trinvist implementeret frem mod 2027. Fra 2. august 2026 gælder følgende jf. den såkaldte gennemsigtighedsforpligtelse, der blandt andet indeholder nedenstående:

●    Udbydere skal sikre, at AI-systemer, der er tilsigtet at interagere direkte med fysiske personer, udformes og udvikles på en sådan måde, at de pågældende fysiske personer oplyses om, at de interagerer med et AI-system, medmindre dette er indlysende ud fra en rimeligt velinformeret, opmærksom og forsigtig fysisk persons perspektiv.
●    Udbydere af AI-systemer, der genererer syntetisk lyd-, billed-, video- eller tekstindhold, sikrer, at AI-systemets output er mærket i et maskinlæsbart format og kan spores som kunstigt genereret eller manipuleret.
●    Idriftsættere af et AI-system, der genererer eller manipulerer billed-, lyd- eller videoindhold, der udgør en deepfake, skal oplyse, at indholdet er blevet genereret kunstigt eller manipuleret.

Digitaliseringsstyrelsen, der koordinerer tilsynet med EU-reglerne for kunstig intelligens, oplyser desuden, at virksomheder og myndigheder, der arbejder med kunstig intelligens skal sikre, at deres medarbejdere har et tilstrækkeligt niveau af AI-færdigheder. 

Det gælder uanset hvad AI-systemerne bruges til. Eksempelvis skal alle relevante aktører have færdigheder til at kunne forstå og overholde AI-forordningen, der hvor den er gældende i det enkelte tilfælde.

Kilde: Digitaliseringsstyrelsen

Otte ting, du ikke må

Ifølge EU’s AI-forordning er det ikke tilladt at bruge AI-systemer til:

●    Manipulation, der kan skade mennesker.
●    Udnyttelse af sårbare personer
●    Social bedømmelse af borgere
●    Profilbaserede risikovurderinger om kriminalitet
●    Indsamling af ansigtsdata fra nettet eller overvågning
●    Følelsesanalyse på arbejdspladsen eller i undervisning (undtagen medicinske/sikkerhedsformål)
●    Biometrisk kategorisering baseret på politiske, religiøse eller seksuelle forhold.
●    Ansigtsgenkendelse i realtid på offentlige steder (med undtagelser).

Kilde: Digitaliseringsstyrelsen

Seneste artikler

Læs alle artikler

Akademikerbladet

Akademikerbladet.dk

Genveje