6 veje til sikker brug af AI
Maria Damborg Hald, partner og teknologi-leder i Deloitte Consulting,
DM kommunikation har bedt Maria Damborg Hald, partner og teknologi-leder i Deloitte Consulting, og Andreas Holbak Espersen, digitaliseringspolitisk chef i Dansk Industri, om deres bedste råd til retningslinjer for brugen af kunstig intelligens.
1. Data-påpasselighed
Ingen persondata eller forretningskritiske data bør fodres ind i åbne AI-modeller. AI-modeller træner på det input, de får, og derfor kan data-fodring udgøre en risiko for læk af følsomme oplysninger, og der skal derfor være strenge retningslinjer for, hvad der må uploades. Også hvis der arbejdes i lukkede AI-miljøer, bør der være guidelines for, hvordan data håndteres og bruges.
Andreas Holbak Espersen
2. Ansvar for outputkvalitet
Selvom AI kan hjælpe med at generere output, bør mennesker stadig have ansvaret for kvaliteten. AI-modeller baserer sig på statistiske beregninger og kan derfor ikke garantere rigtighed. Mennesker skal derfor faktatjekke og redigere alt, der genereres af AI, for at sikre kvalitet og korrekthed i det endelige produkt.
Andreas Holbak Espersen
3. Gør det konkret
Virksomheder bør have klare interne retningslinjer for brugen af AI, der inkluderer do's and don'ts. Medarbejderne skal vide præcist, hvilke typer data, de må bruge i AI-modellerne, og hvilke de ikke må. Det sikrer, at ingen utilsigtet uploader følsomme data, og at medarbejderne har klare rammer at arbejde indenfor.
Andreas Holbak Espersen
4. Sikker infrastruktur
Det er vigtigt at sikre, at AI-platforme anvender en sikker infrastruktur, hvor virksomhedens data opbevares korrekt og i overensstemmelse med GDPR-reglerne. Mange AI-modeller kører på amerikanske cloud-tjenester, hvilket kan skabe usikkerhed omkring databeskyttelse.
Maria Damborg Hald
5. Løbende evaluering
Brugen af AI skal betragtes som en driftsdisciplin, der kræver løbende opdatering og vurdering. Det kræver også, at man løbende holder sig orienteret om opdateringer og hvordan brugen af godkendte AI-værktøjer udvikler sig. Virksomheder bør løbende sikre, at de AI-modeller, de bruger, forbliver sikre, effektive og kompatible med nye lovgivninger.
Maria Damborg Hald
6. Godkendelsesprocedure
Hvornår er et værktøj sikkert nok at bruge? Og til hvad? Virksomheder bør tage aktive valg om, hvilke platforme de bruger. Som en del af den løbende evaluering er det en god ide at have klare godkendelsesprocedure for ibrugtagen af nye AI-værktøjer. Det kan være, at man kun vil bruge tjenester, der udbydes af bestemte leverandører eller som har hjemme i EU. Uanset hvad, er klare procedurer gode at formulere - og følge.
Maria Damborg Hald