Klimabevidst AI-teknologi er fremtiden

Adjunkt Raghavendra Selvan så gerne, at folk blev mere klimabevidste om de teknologier, de bruger. Foto Datalogisk Institut, Københavns Universitet.

Af Berit Villadsen
Del artikel:

Vi skal være mere kritiske overfor de miljømæssige omkostninger ved at bruge AI, mener adjunkt Raghavendra Selvan fra DIKU, der har flere bud på, hvordan vi kan sænke CO2-aftrykket fra AI.

Hvordan påvirker det klimaet, at jeg bruger ChatGPT i mit arbejde eller fritid? Og kan jeg med fordel bruge en anden AI-sprogmodel, der har et lavere CO2-aftryk? 

Det er et af flere spørgsmål, vi som forbrugere af AI i højere grad skal stille os selv i fremtiden, mener Raghavendra Selvan, adjunkt fra Datalogisk Institut på Københavns Universitet, DIKU.

- I dag måler virksomhederne typisk ikke energiomkostningerne ved AI-modellerne. Modellerne bliver målt og vurderet efter, om de klarer sig godt, oversætter og registrerer objekterne korrekt. Men ikke hvilket energiforbrug, der bruges i udviklingen og i træningen af dem. Og det er et problem for klimaet, siger Raghavendra Selvan.

AI-forbruget udfordrer klimaet

Ifølge forskeren stiller den stigende interesse for brugen af AI og Chat GPT, der blev lanceret i 2022, større krav til såvel virksomheder som forbrugere. Det skyldes, at AI-sprogmodellerne har et langt større energiforbrug og CO2-aftryk end diverse andre søgemaskiner.

Sammen med en forskergruppe på DIKU har Raghavendra Selvan lavet beregninger, der viser, at en enkelt forespørgsel (prompt) til ChatGPT i gennemsnit har et estimeret energiforbrug på 0,19 kWh, som alt afhængigt af effektiviteten af computerinfrastrukturen svarer til 4- 40 opladninger af din mobiltelefon, en kilometer i din elektriske bil eller en times streaming. (se faktaboks)

AI-teknologiens større CO2-aftryk var baggrunden for, at Raghavendra Selvan i 2019 gik i gang med at forske i måder, hvorpå vi kan sænke CO2-aftrykket fra AI.

Lovgiv om miljøomkostninger

Han har en række bud på, hvordan vi kan sænke AI’s stigende CO2-aftryk. Først og fremmest handler det om at skabe en øget bevidsthed om, at der overhovedet er miljømæssige omkostninger ved at udvikle og bruge AI-teknologi.

- Vi taler ofte om, hvordan vi kan bruge AI-metoder til at fremme FN’s mål for bæredygtig udvikling, men vi taler sjældent om, at AI har et stort ressourceforbrug. Selvom en teknologi bruges til at fremme den grønne omstilling, bør det ikke forhindre os i at spørge om teknologien i sig selv er grøn? siger Raghavendra Selvan.

En måde at øge klimabevidstheden om brugen af AI på er ifølge forskeren, at gøre det lovpligtigt for virksomhederne at skulle afrapportere om miljøomkostningerne ved både udviklingen og implementeringen af den energiintensive teknologi.

Ifølge forskeren er der en voksende interesse for energicertificering af datacentre og algoritmer, men det er et område, der er forbundet med både politiske og tekniske udfordringer.

For hvad kræver en certificering? Hvad er standarden? Hvordan måler man energien, og ikke mindst hvordan sammenligner man f.eks. forskellige programmeringssprog? Han håber, at en øget klimaopmærksomhed vil resultere i specifikke miljøkrav til brugen af teknologien.

- I dag er der ingen lovgivning eller konkret mærkning på området. Men jeg følger nogle af de EU-lovgivninger, der er på vej, og der er en lille interesse for at angive miljøpåvirkningen af datacentre, AI-modellerne og den slags i tal.

Han håber, at en øget klimaopmærksomhed vil resultere i specifikke miljøkrav til brugen af AI

Effektiviser dit strømforbrug

En metode til at reducere AI-teknologiens CO2-aftryk på er ved at måle effektiviteten ved strømforbruget, det vil sige, hvor meget strøm, teknologien bruger til sine beregninger.

Her er fokus på, hvor stor en del virksomhederne, bruger på faste omkostninger i forbindelse med vedligeholdelse af computerne, der laver AI-beregningerne f.eks. i form af nedkøling, varmeudledning etc.

Ifølge Raghavendra Selvan har nogle af de ledende grønne virksomheder på AI- området optimeret deres energiforbrug så meget, at de for en watt brugt til computerberegninger kun bruger 0,1 watt på vedligeholdelsesomkostninger.

Til sammenligning bruger mange datacentre måske 0,3 watt, altså tre gange så meget på vedligeholdelsesomkostninger eller mere. Så der er både energi og penge at spare på at være en klimabevidst AI-virksomhed, påpeger han.

Spar penge med klimabevidst AI-forbrug

En anden måde at gøre AI-teknologien grønnere på er ved at kigge på strømforbruget ved udviklingen af AI-teknologi.

Hvis du f.eks. vælger at træne AI-systemer udenfor spidsbelastningsperioder, kan du i et land som Danmark nøjes med kun at bruge vind- og solenergi. Det reducerer både CO2-aftrykket fra træningssessionerne og prisen på dit el-forbrug.

Ifølge Raghavendra Selvan er mange af de beregninger, der bliver lavet ikke tidskritiske og kan derfor godt forskydes med et par timer. Selvom strømforbruget er det samme ved beregningen, kan tidsforskydningen alligevel reducere CO2-forbruget markant. Det skyldes ifølge forskeren, at CO2-intensiteten i elektricitet kan være tre gange højere i spidsbelastningsperioder.

Elforbruget skal være mere transparent

Ifølge forskeren er der ingen, der har lavet beregninger over, hvor meget det stigende forbrug af AI vil påvirke klimaet om 5-10 år. Han oplever, at det er svært at beregne.

Raghavendra Selvan savner generelt meget mere transparens på energiområdet, som kan være med til at belyse AI-forbruget og de miljømæssige konsekvenser heraf. Han opfordrer politikkerne til at kræve at der åbnes mere op.

- Det er generelt svært af få fat i data omkring elektricitetsforbrug. I EU har vi mest data sammenlignet med resten af verden, men det er stadig ikke tilstrækkeligt udbredt, og vi har brug for en større indsats. EU bør i det mindste udarbejde en standardportal, hvor alle statistikker over energiforbrug eller energiproduktion er tilgængelige for offentlig brug, slutter han.

Sådan sænker du CO2-aftrykket fra AI-teknologien

  1. Gør algoritmerne hurtigere og mere effektive ved at reducere antallet af bits, der bruges til at udføre beregningerne.
  2. Fjern ubenyttet data ved løbende at vurdere lagringen af såkaldt dark data, de data der genereres, som vi aldrig kigger på igen, og som optager unødvendig plads og energi i datacentrene.
  3. Træn AI-systemer udenfor spidsbelastningsperioder.
  4. Brug virksomheder med grønt fokus indenfor AI.

Sådan beregnede vi ChatGPT’s energiforbrug

Da energiomkostningerne ved at køre forespørgsler i ChatGPT ikke er offentligt tilgængelige og den nøjagtige model, der anvendes til ChatGPT også er ukendt, valgte Raghavendra Selvan og hans forskerteam at estimere disse tal ud fra flere antagelser om den computerinfrastruktur, de havde adgang til. De kørte en mindre ChatGPT-model, der er open source, lokalt på deres computer, målte energiforbruget af den og skalerede det op til, hvad forbruget af ChatGPT kunne være.

Metoden gør, at beregningerne er behæftet med en vis usikkerhed, hvorfor energiforbruget af en forespørgsel (prompt) ligger et sted mellem 4 - 40 gange opladninger af en mobiltelefon.

}