Hopp til hovedinnhold
Bilde av jente som sitter med smarttelefon og søker informasjon.

Hvor mye strøm bruker egentlig KI?

Et enkelt søk i ChatGPT er ikke noen klimakatastrofe. Men summen av all KI-bruk globalt kan bli enorm. Hva vet vi egentlig om energiregningen for kunstig intelligens? Er nytten stor nok til å forsvare den?

Gudbrandsdal Energi
Publisert

Åtte korte spørsmål til en KI-chatbot bruker omtrent like mye strøm som en fire watts pære på én time. Det høres ikke dramatisk ut. Men det er bare begynnelsen på regnestykket.

Erik Johannes Husom, forsker i SINTEF, er en av dem som har sett nærmere på energiforbruket til kunstig intelligens i Norge. Han er opptatt av at strømforbruket øker betraktelig med en gang man holder lengre samtaler, bruker mer avanserte funksjoner eller lar KI-agenter jobbe i bakgrunnen.

– En forespørsel til GPT-5 med «high reasoning»-modus kan kreve flere titalls wattimer. Og bruker du KI-agenter, fører det i praksis til en mangedobling av strømforbruket fordi språkmodellene fører en form for samtale i bakgrunnen som brukeren ikke ser.

Fra enkeltspørsmål til global strømregning

Skalaen er det som gjør forbruket interessant. OpenAI har estimert at de prosesserer 2,5 milliarder forespørsler hver dag, rundt 900 milliarder i året. Med et snittforbruk på 0,5 wattimer per forespørsel gir det alene nesten 450 000 megawattimer i året, bare fra ChatGPT.

I tillegg kommer bildegenerering, videogenerering og alle tjenestene som bruker språkmodeller i bakgrunnen via et programmeringsgrensesnitt.

En studie publisert i tidsskriftet Joule i 2025 som estimerer forbruket basert på chip-produksjon, kommer frem til at KI globalt kan ha stått for opp mot 82 TWh i 2025 – tilsvarende rundt 20 prosent av hele datasentrenes samlede forbruk på over 400 TWh.

Bilde av Erik Husom i SINTEF
Erik Husom er forsker i SINTEF.

– KI er en svært bred samlebetegnelse. Det er først og fremst generativ KI – altså det som lager tekst, bilder og video – som er energikrevende. Av disse er chatboter mest utbredt. Men videogenerering er langt mer energikrevende enn tekstgenerering, og det er vanskeligere å estimere forbruket fordi vi ikke har offentlige tall på bruken, sier Husom.

Han trekker frem et konkret eksempel: I løpet av de fem første dagene etter lanseringen ble OpenAIs videoapp Sora lastet ned over én million ganger. Slikt bruksmønster skaper raskt et signifikant strømforbruk som er nesten umulig å se inn i.

Trening eller bruk - hva koster mest?

Det er vanlig å tenke at det er treningsfasen, altså når KI-modellene bygges opp fra bunnen av, som er den store energisynderen. Men bildet er mer nyansert.

Husom viser til forskning som antyder at opp mot 90 prosent av modellens totale energiforbruk gjennom livsløpet faktisk skjer i bruksfasen, ikke treningsfasen. Bak det tallet ligger imidlertid en forenkling.

– Det er en myte at en modell bare trenes én gang. Det er en lang utviklingsprosess der man prøver og feiler i mange ulike ting, justerer treningsdata, og man må vanligvis kjøre mange kortere og lengre treningsrunder. Og alle vil jo helst bruke det siste og beste, noe som driver frem stadig nye runder.

En viktig forskjell er likevel at kostnadene i bruksfasen er noe forbrukere faktisk kan påvirke direkte ved å velge enklere funksjoner, kortere samtaler og unngå de mest ressurskrevende modusene.

Bilde av Jonas NølandFoto: Peder M.R. Egge
Jonas Nøland

Jonas Kristiansen Nøland, forfatter av boka «Energikrisen - og løsningen på den» og professor ved NTNU, er opptatt av noe han kaller Jevons paradoks i denne sammenhengen: at effektiviseringsforbedringer ikke nødvendigvis fører til lavere totalforbruk.

– Det som skjer med datasentrene, er at de blir mer og mer effektive. Mange tenker at det betyr lavere energibehov. Men historisk ser vi at disse effektiviseringene øker konkurransefortrinnet til tjenestene, som gjør at behovet går opp. Det er litt som Boeings revolusjonerende jetmotor for noen tiår tilbake. Den ga store energibesparelser, men da ble det billigere å fly lenger, og energibehovet økte.

«Vår tids digitale klimaversting» eller nødvendig verktøy?

Husom i SINTEF brukte nylig uttrykket «vår tids digitale klimaversting» om generativ KI, et uttrykk han hentet fra en kronikk han selv svarte på. Han er nøye på å presisere hva han mener med det.

– Nøkkelordet er «digitale». Det er helt klart andre industrier og teknologier som har et mye større klimaavtrykk enn KI. Men innenfor digitale teknologier er det bare kryptovaluta og KI som kan konkurrere om den tittelen. Det handler litt om dagens situasjon, men aller mest om veksten vi er på vei inn i.

Han understreker at strømforbruk bare er én del av regnestykket. Produksjonen av maskinvaren – i all hovedsak avanserte grafikkort, såkalte GPU-er – og håndteringen av foreldet utstyr er minst like viktig. Ifølge FNs Global E-Waste Monitor, ble det i 2022 kastet 62 millioner tonn elektronisk avfall globalt, en vekst på 82 prosent siden 2010. Bare 22 prosent ble resirkulert og veksten i avfallet økte fem ganger raskere enn det som faktisk resirkuleres.

– KI-maskinvare har begrenset levetid, fra ett til åtte år avhengig av bruken. Mange i bransjen snakker om at KI skal bli «kritisk infrastruktur» på linje med elektrisitet. Om dette blir realiteten, vil det ha massive konsekvenser for produksjon av maskinvare, elektronisk avfall og ressursforbruket knyttet til dette.

Jonas Nøland ser det samme bildet fra energiperspektivet. Han trekker frem kjernekraftdebatten i Norge som et symptom på en underliggende utfordring:

– Det hadde ikke vært så stor privat interesse for kjernekraft i Norge hadde det ikke vært for interessen rundt nytt strømbehov, og spesielt fra KI og tech-selskaper. Vi ser avtaler fra Meta internasjonalt som er helt oppe i én til to kroner kilowattimen i fastpriskontrakt.

Hva er det faktisk verdt?

Debatten om KIs energikostnader handler til syvende og sist om ett spørsmål: Hva får vi igjen?

Husom er kritisk til at generativ KI overskygger alt annet på feltet. Han jobber selv med prosjekter der mer tradisjonelle, energieffektive KI-metoder brukes til å analysere data i strømnett, medisinske bilder og produksjonsfasiliteter.

– Det er svært mange tradisjonelle KI- og maskinlæringsmetoder med underutnyttet potensiale i mange sektorer. Mange er både mer energieffektive, forklarbare og forutsigbare, men de havner i skyggen av språkmodeller, som tilbyr en forlokkende fleksibilitet.

Han er ikke utelukkende negativ til generativ KI. KI-assistert programmering ser ut til å øke produktiviteten etter vanlige målemetoder. Men han er nøktern på hva det betyr i praksis:

– Programvare er verktøy for å utføre noe, og det at det blir mer programvare, og at den er raskere å produsere, betyr ikke nødvendigvis at vi oppnår målene våre på en bedre måte.

Han stiller også et mer grunnleggende spørsmål om hva mye av KI-bruken faktisk handler om:

– Svært mye bruk av generativ KI er ulike former for underholdning. Det er selvfølgelig gøy å kunne lage så mye rart med KI, enten det er spennende historier, fengende sanger eller morsomme bilder og videoer. Jeg tror likevel ikke at mangel på underholdning var et stort problem i samfunnet før ChatGPT kom. Sett i lys av at vi har begrensede ressurser på planeten, og at disse ressursene er enormt skjevfordelt, synes jeg mange av bruksområdene er svært unødvendige.

Nøland er opptatt av å skille mellom ulike typer KI-behov. Det finnes, påpeker han, et reelt minimumsbehov for kritisk datahåndtering som Norge i dag overlater til andre deler av verden, noe som er blitt mer sårbart i en ny geopolitisk virkelighet. Det er noe annet enn de rent kommersielle initiativene.

Eivind Samseth, strategisjef i Volt Analytics, mener svaret ikke er å bremse utviklingen:

– Norge, Europa og verden trenger flere datasentre. Norge kan velge å ta en del i denne industrien, eller la den gå til andre land. Vi bør være glade for at nye industrier vil investere i Norge uten subsidier. Men vi må sørge for at det bygges nok kraft og nett til å beskytte eksisterende industri og husholdninger.

Bilde av Eivind Samseth
Eivind Samseth

Hva bør vi egentlig gjøre?

Husom har ett råd til politikere, og det er ikke teknisk: Vær nøkterne.

Han viser til digitaliseringsminister Karianne Tung, som nylig uttalte at vi «må stole på at kunstig intelligens vil oss godt». Det mener Husom er en risikabel holdning.

– Dette er ganske utrolig å uttale. Kunstig intelligens er ingen vidunderkur, og det er mange feil og svakheter ved de fleste systemer. Vi må først og fremst aktivt undersøke hva slags nytte ulike former for KI faktisk kan gi oss verdi, og så vurdere hva vi får ut av det kontra hva kostnadene er.

– Smart og fornuftig bruk av KI handler ikke om å bruke energikrevende chatboter og KI-agenter over alt. Det handler om å identifisere hvilke problemer man trenger å løse, og så velge verktøy ut fra det.

Et enkelt søk er fortsatt ikke noen klimakatastrofe. Men summen av milliarder av søk, stadig kraftigere modeller, raskt voksende datasentre og maskinvare med begrenset levetid utgjør en klimaregning som begynner å bli betydelig. Og spørsmålet om hvem som betaler den – og hva vi faktisk får igjen for den – er langt fra avgjort.

Les også: Vil datasentre gjøre strømregningen din dyrere?

KI og strømforbruk

  • Ett enkelt ChatGPT-søk bruker rundt 0,5 wattimer – tilsvarende åtte søk per time en firevattspære lyser.
  • En forespørsel med «high reasoning»-modus kan bruke flere titalls wattimer.
  • OpenAI prosesserer anslått 2,5 milliarder forespørsler daglig.
  • KI kan ha stått for opp mot 82 TWh globalt i 2025 – rundt 20 prosent av datasentrenes samlede forbruk.
  • I 2022 ble det kastet 62 millioner tonn elektronisk avfall globalt – bare 22 prosent ble resirkulert.

Relaterte nyheter

Hvor mye strøm bruker egentlig KI?