Undervisere kan ikke tjekke snyd med AI
Nye eksamensformer er en af konsekvenserne ved AI's indtog.
Hvordan sikrer universiteterne sig mod, at de studerede får AI til at skrive opgaver og bestå eksamener? Det kan de ikke, og derfor må der findes på andre løsninger.
I sommeren 2022 var Carsten Bergenholtz, der er lektor på Institut for virksomhedsledelse på Aarhus Universitet med interesse i kunstig intelligens, ikke nervøs for, at de studerende kunne snyde med AI. For den AI, der var tilgængelig, var “ikke i nærheden af at kunne bruges til noget”, men det ændrede sig brat nogle måneder senere, da ChatGPT blev lanceret.
- Jeg gav den en eksamensopgave i Videnskabelig Metode, og den kunne besvare nogle af spørgsmålene, og samlet set bestå en opgave, siger han.
Den udvikling betød, at man i 2023 på Aarhus Universitet nedsatte en arbejdsgruppe med bl.a. Carsten Bergenholtz som faglig ekspert. Gruppens arbejde har været med til at danne baggrunden for universitetets anbefalinger for brugen af AI, der blev offentliggjort i sommeren 2024. De bygger ifølge Carsten Bergenholtz på tre grundlæggende præmisser:
1. Det er tilladt at bruge AI by default.
2. Alt det, man som studerende ikke selv er ansvarlig for, skal kildeangives. Det gælder også det, der kommer fra en AI.
3. Det at bruge en AI til at få feedback eller hjælp til f.eks. grammatik, adskiller sig ikke fra det at få hjælp fra et andet menneske.
Nu har alle bare fået en utrolig klog fætter, der arbejder ekstremt hurtigt.Andreas de Neergaard, prodekan for det Natur- og Biovidenskabelige Fakultet på Københavns Universitet
Forkerte side af hækken
På Københavns Universitet besluttede man tidligt i foråret 2024, at det slet ikke var tilladt at bruge AI i forbindelse med opgaver og eksamener, men siden har man ændret holdning og er ved at lægge sidste hånd på retningslinjer for brugen af AI, fortæller Andreas de Neergaard, der er formand for arbejdsgruppen for implementering af generativ AI på KU og prodekan for det Natur- og Biovidenskabelige Fakultet.
- Vi var på den forkerte side af hækken. Der er jo ikke nogen af vores kandidater, der bliver uddannet i disse år, som ikke vil blive spurgt til en jobsamtale, hvordan de bruger kunstig intelligens, siger han og forklarer, at udviklingen er gået så hurtigt, at beslutningerne har haft svært ved at følge med.
- På kort tid er vi gået fra en forestilling om AI som værende noget ekstremt og ekstraordinært, til at det er noget ordinært.
Derfor er man i dag på KU nået frem til det samme, som man også er nået frem til på Aarhus Universitet: At det at få hjælp fra en AI principielt ikke adskiller sig fra at få hjælp fra et menneske.
- Vi har alle dage kunne få vores kloge fætter til at hjælpe med problemformuleringen og diskutere vores opgaves struktur med en læsemakker. Det, tænker vi, at man bare skal blive ved med, også ved hjælp af generativ AI. Tidligere har man også kunne snyde og få andre til at skrive et afsnit for sig, og det har været svært at kontrollere. Det samme gør sig gældende med AI. Nu har alle bare fået en utrolig klog fætter, der arbejder ekstremt hurtigt. Så det, vi arbejder med nu, er at lære de studerende at bruge AI på en ansvarlig måde, så der er troværdighed og transparens i det, de afleverer.
Pålidelighed og ansvarlighed
På Københavns Universitet må man nu bruge generativ AI fra efteråret 2025, medmindre andet fremgår. Indtil da er det op til de enkelte fagmiljøer at beslutte, hvordan det skal foregå. Sideløbende er arbejdsgruppen for implementeringen af generativ AI på universitetet med Andreas de Neergaard i spidsen i gang med at udarbejde retningslinjer og vejledning. Og her er de overordnede rammer på plads, fortæller Ruth Horak, chefkonsulent i Uddannelser og Studerende på KU, som sidder med i arbejdsgruppen.
- Det er de enkelte studienævn, der skal vurdere, om der til de enkelte eksamener må bruges AI, og her er tre muligheder: enten forbyder man det, tillader det, eller også definerer man brugen, siger hun og fortæller, at man i arbejdsgruppen har lavet en såkaldt navigationsmodel, som man kan tage udgangspunkt i, når man skal tage stilling til, om og hvordan AI må bruges.
Derudover er der selvfølgelig også lavet retningslinjer og en vejledning til de studerende.
- Rammerne skal være klare for de studerende. De skal vide, hvad de må, så de ikke kommer i klemme, siger hun og fortsætter.
- Vi har lavet et princippapir om god akademisk praksis, hvor pålidelighed, ærlighed, respekt og ansvarlighed er guidende principper, og hvor vi forholder os til begrebet ”selvstændighed”. Det handler bl.a. om ens overvejelser om både udvælgelsen og anvendelsen af værktøj – heriblandt AI, hvordan man bruger det og til hvilket formål. På den måde bliver AI tænkt ind i god videnskabelig praksis.
Der findes på nuværende tidspunkt ingen produkter, der kan verificere, om noget er skrevet af en chatbot.Carsten Bergenholtz, lektor på Institut for virksomhedsledelse på Aarhus Universitet
Løsningen er ikke en politimand
Andreas de Neergaard mener, at konsekvensen ved AI er, at man på universiteterne i højere grad må flytte fokus fra produkt til proces.
- Som virksomhed vil man være interesseret i produktet, men på universitetet er vi interesserede i at udvikle arbejdskompetencerne.
Men hvordan sikrer man sig mod, at det bliver en AI, der skriver specialer og løser eksamensopgaver?
- Der er overhovedet ingen mulighed for at tjekke, om der er blevet snydt. Men som studerende ved du godt selv, om du ejer et produkt eller ej, og hvis du ikke ejer det, skal du ikke aflevere det. Derfor er løsningen heller ikke en politimand, men en pædagogisk diskussion af, hvad der er originalitet, og måske især hvordan du tilegner dig viden og skaber værdi. For hvis det, du laver, kan udføres lige så godt af en computer, så har du netop bevist, at du ikke er din løn værd, og det er afgørende for vores kandidater nu og i fremtiden, at man ved, hvordan man skaber værdi gennem sin faglighed, siger Andreas de Neergaard.
Carsten Bergenholtz fra Aarhus Universitet er enig i, at der ikke er nogen måde at tjekke på, om en studerede har fået en AI til at lave sin opgave.
- Der findes på nuværende tidspunkt ingen produkter, der kan verificere, om noget er skrevet af en chatbot. Der er nogle teknologier, der hævder, at de kan, men de er ikke gode nok – de finder for mange falske positive.
- Som underviser kan du heller ikke se, om en opgave er skrevet af en chatbot – man kan jo gå ind og skrive ”skriv på en måde, så man ikke kan se, at det er lavet af en chatbot”. Derfor må man også løse udfordringerne ved at tilpasse eksamensformen, siger han og kommer med et eksempel:
- Hvis man f.eks. har en opgaveformulering, der hedder ”giv en redegørelse for, hvordan den kolde krig opstod”, så er det noget, en chatbot vil være god til, fordi der står så meget om det emne på nettet. Og her kan løsningens så være at eksaminere on site, hvor det ikke er muligt at tilgå en chatbot, siger han, der forudser flere af den typer eksamener fremover samt andre opgavetyper, der ikke kan løses af en chatbot. Heriblandt flere mundtlige eksamener og eksamener, hvor man selv skal samle empirisk data ind – altså hvor der er et kvalitativt og kvantitativt arbejde, der skal bruges en menneskehjerne til at håndtere.
- Som studieleder skal man overveje, hvad der giver mening, og hvad det ikke gør. Og som underviser skal man ikke gøre det for nemt at snyde og f.eks. lave en take home eksamen, hvor ChatGPT ikke må bruges. Det er frustrerende, når nogle elever, som ikke har snydt, får syv og så kan se, at der er medstuderende, der har fået 10, fordi de har brugt ChatGPT.