Digital strateg: AI kan koste k-folks troværdighed
Kunstig intelligens er hajfyldt farvand, for hvis AI ikke bliver brugt med stor omtanke, kan det koste k-folks troværdighed. Derudover svømmer man også rundt med juridiske og etiske dilemmaer, mener Peter Svarre.
“En af de største udfordringer i fremtiden bliver at kunne kende forskel på, hvad der er virkeligt, og hvad der ikke er virkeligt. Derfor har kommunikationsfolk et ekstremt stort ansvar for at deklarere, hvornår man bruger AI.”
Sådan lyder det fra foredragsholder, forfatter og digital strateg Peter Svarre, der de sidste 25 år har stillet spørgsmålet: Hvad sker der, når teknologi rammer mennesker?
Han blev selv blæst bagover, da AI-værktøjerne tog skridtet fra forskningslaboratoriet og ud i den virkelige verden – særligt med ChatGPT’s lancering i november 2022. Ikke fordi han var overrasket over udviklingen, men mere over de sproglige og kommunikative egenskaber.
“Jeg har været særligt imponeret over, hvordan de nye AI-værktøjer har et mere holistisk overblik over tekster. De kører ikke i ring eller gentager sig selv, som de har gjort før i tiden. Og det er nok også derfor, at AI særligt har ramt fag som kommunikationsbranchen, fordi det rammer ned i det, som fagfolk er særligt dygtige til; at kommunikere,” siger han og fortsætter.
”Men vi skal også være forsigtige med at overdrive, hvor god AI er på nuværende tidspunkt. Vi må ikke tro, at teknologierne er mennesker, selvom de kan skrive og virke reflekterede. AI er stadig utrolig langt væk fra at være tænkende mennesker. Så hvis man ikke holder øje med det indhold, AI producerer, risikerer man at undergrave sin egen troværdighed fuldstændig.”
Kritik for brug af AI-genererede billeder
Den store, internationale menneskerettighedsorganisation Amnesty International blev i maj 2023 kritiseret for at bruge AI-genererede billeder i en SoMe-kampagne.
Det skete i kølvandet på en rapport, der dokumenterede hundredvis af tilfælde af menneskerettighedskrænkelser begået af det colombianske politi under bølgen af protester i Colombia i 2021.
Men billederne, der skulle skildre begivenhederne, blev produceret med hjælp af AI.
I det britiske medie The Guardian blev Amnesty således kritiseret for, at billederne viste et forvrænget billede af virkeligheden. Årsagen var, at demonstranterne og politiets ansigter var udglattede og forvrængede, hvilket skabte en mere dystopisk stemning. Flaget havde de rigtige farver – men rækkefølgen var byttet om. Og politiuniformerne var forældede.
Amnesty Internationals forsvar gik på, at organisationen ville beskytte demonstranternes identitet – og understregede, at man havde inkluderet en tekst, hvor der stod, at billederne var produceret af AI.
Alligevel vakte billederne bekymring blandt kommunikationsfolk og fotografer, hvilket var medvirkende til, at NGO’en fjernede billederne.
Sagen er, ifølge Peter Svarre, et godt eksempel på netop, hvordan troværdigheden kan tage skade, når man arbejder med AI.
”Problemet er, at når en stor organisation som Amnesty International, der lever af troværdighed, begynder at bruge AI til at lave billeder, så kan man ikke længere være 100 % sikker på, om det er AI-genereret eller ej,” siger han.
Peter Svarre fortsætter:
”Grundlæggende har Amnesty International sat troværdigheden over styr. Hvis folk mister tilliden til medier og kommunikationsfolk, og de ikke længere kan stole på, hvad der er virkeligt, og hvad der er forkert, så gider de til sidst ikke at læse det, og så bliver man irrelevant.”
Vi må ikke tro, at teknologierne er mennesker, selvom de kan skrive og virke reflekteredePeter Svarre, digital strateg, foredragsholder og forfatter
Juridiske og etiske dilemmaer
Eksemplet med Amnesty International underbygger også et andet problem for kommunikationsfolks arbejde med AI. For hvem ejer egentlig de billeder, som Amnesty International fik produceret?
Spørgsmålet handler i høj grad om ophavsret. Og selvom ophavsretsloven blev justeret den 1. juni i år, er der, ifølge kulturminister Jakob Engel-Schmidt (M), flere ændringer på vej.
Men ophavsretten kan, ifølge Peter Svarre, ikke følge med AI.
”Hvis man som kommunikatør genererer et billede ved hjælp af AI, så må alle andre faktisk gerne tage det billede og bruge det til, hvad de vil. Det juridiske spørgsmål kommer derfor til at få stor betydning – for hvor stor en gnist af menneskelig kreativitet skal der ind over skabelsen af et billede, før man har krav på det?”
Peter Svarre tilføjer:
”Jeg kan også bruge lang tid på at skrive en prompt på 50 ord eller efterredigere et billede i Photoshop, og så vil jeg jo godt kunne argumentere for, at der er brugt en menneskelig kreativitet til at skabe billedet, men sådan fungerer reglerne bare ikke endnu, og derfor skal man være opmærksom på de juridiske dilemmaer, hvis man som k-folk bruger AI.”
Er der andre juridiske dilemmaer, som k-folket skal være opmærksomme på, hvis de bruger AI?
“Lige nu kører der retssager i USA om, hvorvidt AI-systemerne har haft ret til at indsamle det billedmateriale, som modellerne er bygget på. Selv siger de, at de kun har trænet på materiale, der er i det offentlige domæne, men der er flere vilde eksempler på, at de også har brugt copyrightbeskyttet indhold,” siger Peter Svarre.
Har du et eksempel på det?
”Hvis man i Midjourney (Midjourney er et generativt kunstig intelligensprogram, red.) skriver, at man gerne vil have et billede af ’Afghan Girl’, så minder det på utrolig mange punkter om det oprindelige billede, som vi kender med den unge pige med slør og store grønne øjne. Det er så tæt på det originale billede, at de ikke har haft lov til at bruge det,” siger han og fortsætter:
”Med andre ord er maskinerne altså trænet på materiale, der er lavet af kunstnere, fotografer og andre kreatører. Og det er i princippet ulovligt. Det leder os tilbage til os kommunikatører: Er det overhovedet etisk i orden, at jeg bruger de her maskiner – vel vidende, at de har tyvstjålet billedmaterialet fra folk, der har copyright på egne produkter?”
Hvad kan k-folket så gøre, hvis de bruger AI til blandt andet billedgenerering, men samtidig gerne vil have etikken på plads?
”De skal være forsigtige, når de får billederne genereret. De skal undersøge, om det ligger op ad andre kendte billeder. Og det må så være op til ens egen samvittighed, om man vil gøre det eller ej,” siger Peter Svarre.