KI-loven og AI Act: Hva betyr den nye loven for AI-møteverktøy i Norge?

Norges nye KI-lov (EUs AI Act) trer i kraft etter sommeren 2026. Lær hvordan den påvirker AI-møteverktøy, hvilke krav som gjelder, og hvordan du velger riktig verktøy som er klart for den nye loven.

10 lesetid
Del

Norges nye KI-lov, basert på EUs AI Act, trer i kraft etter sommeren 2026. For norske bedrifter som bruker AI-møteverktøy betyr det nye krav til risikovurdering, dokumentasjon og åpenhet. Her er alt du trenger å vite.

Hva er AI Act og KI-loven?

AI Act er EUs forordning for kunstig intelligens, vedtatt 1. august 2024 og gradvis innført med full virkning fra august 2026. Norge får sin egen KI-lov (KI-forordningen) som gjennomfører AI Act i norsk rett, forventet etter sommeren 2026.

Loven klassifiserer KI-systemer i fire risikonivåer:

RisikonivåBeskrivelseEksempler
UakseptabelForbudtFølelsesgjenkjenning på arbeidsplassen, sosial scoring
Høy risikoStrenge kravKI som evaluerer ansatte, analyserer jobbsøknader, tar ansettelsesvalg
Begrenset risikoÅpenhetskravChatbots, AI-generert innhold, møtetranskribering
Minimal risikoIngen kravSpamfiltre, autocomplete

Hvor havner AI-møteverktøy?

De fleste AI-møteverktøy, inkludert Dara, Granola, Otter.ai og lignende, klassifiseres som begrenset risiko. Det betyr at de ikke er forbudt eller underlagt de strengeste kravene, men at åpenhetskrav gjelder.

Begrenset risiko: Hva kreves?

For KI-systemer med begrenset risiko stiller AI Act krav om:

  1. Informasjonsplikt: Alle møtedeltakere må vite at KI brukes til transkribering og oppsummering
  2. Merking av AI-generert innhold: Møteoppsummeringer laget av AI bør merkes som AI-genererte
  3. Tilgjengelig dokumentasjon: Brukeren skal kunne forstå hva KI-systemet gjør

Når blir møteverktøy høy risiko?

Et AI-møteverktøy kan klassifiseres som høy risiko hvis det brukes til å:

  • Evaluere ansattes prestasjoner basert på møtedeltakelse eller bidrag
  • Analysere kandidater i jobbintervjuer (sentimentanalyse, kroppsspråk, talekvalitet)
  • Ta beslutninger om forfremmelse eller oppsigelse basert på møtedata
  • Overvåke ansattes atferd systematisk gjennom møtedata

Viktig: Det er ikke verktøyet i seg selv, men bruken som avgjør risikonivået. Et møteverktøy som kun lager referat er begrenset risiko. Samme verktøy brukt til å score ansattes bidrag kan bli høy risiko.

8 krav du må oppfylle, uansett risikonivå

Selv om møteverktøy typisk er begrenset risiko, overlapper AI Act med GDPR. Her er kravene norske bedrifter allerede bør ha på plass:

1. Kartlegg KI-verktøyene dine

Lag en oversikt over alle AI-verktøy som brukes i organisasjonen. For møteverktøy: hvem bruker det, i hvilke møter, og hvem er berørt?

2. Klassifiser risikoen

Vurder om bruken er begrenset risiko (transkribering, referat) eller potensielt høy risiko (evaluering, overvåking).

3. Informer alle berørte

Møtedeltakere, også eksterne, må informeres om at AI brukes. Dette er allerede et GDPR-krav, men AI Act forsterker det.

4. Gjennomfør risikovurdering

En personvernkonsekvensutredning (DPIA) er anbefalt for alle AI-møteverktøy og påkrevd for høyrisiko-bruk.

5. Dokumenter bruken

Beskriv hva verktøyet gjør, hvilke data det prosesserer, hvor data lagres, og hvem som har tilgang.

6. Sikre menneskelig tilsyn

AI-genererte møtereferater bør gjennomgås av mennesker, spesielt hvis de brukes til beslutninger.

7. Gi opplæring

Ansatte som bruker AI-møteverktøy må forstå hvordan verktøyet fungerer, hva det gjør med data, og sine plikter.

8. Velg leverandør med omhu

Leverandøren bør kunne dokumentere compliance. Sjekk:

  • Hvor lagres data? (EU/EØS vs USA)
  • Brukes møtedata til å trene AI-modeller?
  • Lagres lydopptak?
  • Er det en databehandleravtale (DPA)?

Slik velger du AI-møteverktøy som er klart for KI-loven

Ikke alle verktøy er like godt forberedt. Her er en sjekkliste:

✅ Grønt lys, compliance-vennlig

  • Data lagres i EU/EØS: unngår Schrems II-problematikk og forenkler AI Act-compliance
  • Ingen AI-trening på møtedata: møtedataene dine brukes kun for deg
  • Ingen lydlagring: minimerer personvernrisiko (dataminimering, GDPR art. 5)
  • Tydelig DPA: databehandleravtale tilgjengelig
  • Åpen om AI-modeller: dokumenterer hvilke modeller som brukes og hvordan

🟡 Gult lys, krever vurdering

  • Data i USA med EU-US DPF: akseptabelt, men krever ekstra dokumentasjon
  • Lagrer lyd/video midlertidig: ok hvis slettefrister er definert
  • Bot som joiner møter: krever eksplisitt samtykke fra alle deltakere

🔴 Rødt lys, høy compliance-risiko

  • Bruker møtedata til modelltrening: potensielt i strid med AI Act og GDPR
  • Uklart hvor data lagres: umulig å gjennomføre risikovurdering
  • Ingen DPA tilgjengelig: juridisk uforsvarlig
  • Følelsesgjenkjenning eller atferdsskåring: forbudt under AI Act

Sammenligning: Compliance-profil for populære møteverktøy

VerktøyDatalagringAI-treningLydlagringBotKI-lov-risiko
Dara🇸🇪 Sverige (EU)NeiNeiNei (usynlig)✅ Lav
Granola🇺🇸 USANei (opt-in)NeiNei (usynlig)🟡 Middels
Otter.ai🇺🇸 USAJa (standard)JaJa (bot)🔴 Høy
Fireflies🇺🇸 USAJa (forbedring)JaJa (bot)🔴 Høy
Microsoft Copilot🇪🇺 EU (valgfritt)NeiNeiNei (native)🟡 Middels
Krisp🇺🇸 USA (standard)NeiNeiNei (lokal)🟡 Middels
tl;dv🇪🇺 EUNeiJaJa (bot)🟡 Middels
Jamie🇪🇺 EUNeiNeiNei (lokal)✅ Lav
Notably🇳🇴 NorgeUkjentJaJa (bot)🟡 Middels

Merk: Klassifiseringen er basert på offentlig tilgjengelig informasjon per mars 2026. Sjekk alltid oppdaterte vilkår.

AI Act + GDPR: Dobbelt regelverk, dobbelt ansvar

AI Act erstatter ikke GDPR, de gjelder parallelt. For AI-møteverktøy betyr det:

KravGDPRAI Act
Behandlingsgrunnlag✅ Påkrevd,
Informasjonsplikt✅ Påkrevd✅ Forsterket
DPIA✅ Ved høy risiko✅ Ved høy risiko
Dataminimering✅ Påkrevd,
Dokumentasjon✅ Påkrevd✅ Utvidet
Menneskelig tilsyn,✅ Påkrevd (høy risiko)
Risikoklassifisering,✅ Påkrevd
Merking av AI-innhold,✅ Påkrevd
Opplæring av brukere,✅ Påkrevd

Gebyrene under AI Act kan bli høyere enn GDPR, opptil 35 millioner euro eller 7 % av global omsetning.

5 vanlige feil bedrifter gjør

1. «Vi bruker jo bare Copilot, det er vel greit?»

Selv om verktøyet er fra Microsoft, er det din bedrift som er ansvarlig for å oppfylle kravene. Du må dokumentere bruken, informere berørte, og gjennomføre risikovurdering.

2. «GDPR-compliance betyr at vi er AI Act-compliant»

Nei. AI Act har tilleggskrav som GDPR ikke dekker, spesielt risikoklassifisering, AI-merking og opplæring.

3. «Møteverktøy er lav risiko, vi trenger ikke gjøre noe»

Begrenset risiko betyr ikke null krav. Åpenhetskrav gjelder, og ved feil bruk (evaluering av ansatte) kan risikonivået øke.

4. «Vi informerer bare om opptak i innkallingen»

AI Act krever mer enn en generell setning. Deltakere skal forstå at KI brukes, hva den gjør, og hvordan data håndteres.

5. «Vi venter til loven trer i kraft»

Loven trer i kraft etter sommeren 2026, men forberedelsene tar tid. Kartlegging, klassifisering, dokumentasjon og opplæring bør startes nå.

Tidslinje: Hva skjer når?

DatoHendelse
1. aug 2024AI Act vedtatt i EU
2. feb 2025Forbudte KI-praksiser trer i kraft (EU)
2. aug 2025Krav til allmennformåls-AI-modeller (EU)
Aug 2026Full virkning av AI Act i EU
Etter sommeren 2026KI-loven trer i kraft i Norge
2027+Høyrisiko-krav for eksisterende systemer

Slik forbereder du bedriften, 4 steg

Steg 1: Kartlegg (nå)

List opp alle AI-verktøy som brukes, inkludert møteverktøy, Copilot, ChatGPT, og andre.

Steg 2: Klassifiser (nå)

Vurder risikonivå for hvert verktøy basert på bruksområde. Gjennomfør DPIA for verktøy med potensielt høy risiko.

Steg 3: Dokumenter og informer (Q2 2026)

Lag intern policy, oppdater personvernerklæring, informer ansatte og eksterne deltakere.

Steg 4: Velg riktig leverandør (Q2 2026)

Velg verktøy som gjør compliance enkelt. EU-datalagring, ingen AI-trening, tydelig DPA, og minimal datainnsamling.

Hvorfor Dara er bygget for KI-loven

Dara er designet med personvern og compliance fra dag én:

  • Data lagres i Sverige: innenfor EU/EØS, ingen Schrems II-risiko
  • Ingen AI-trening: møtedataene dine brukes aldri til å trene modeller
  • Ingen lydlagring: lyden prosesseres og slettes, kun tekst beholdes
  • Usynlig: ingen bot som krever eksplisitt tillatelse fra alle deltakere
  • DPA tilgjengelig: tydelig databehandleravtale
  • Best på norsk: transkribering optimalisert for norsk språk og dialekter
  • AES-256-kryptering: for data i ro og under overføring

Daras arkitektur, usynlig, EU-data, ingen lydlagring, ingen AI-trening, gjør compliance-arbeidet betydelig enklere enn med bot-baserte verktøy som lagrer lyd i USA.

Ofte stilte spørsmål

Er AI-møteverktøy forbudt under AI Act?

Nei. Møteverktøy som transkriberer og oppsummerer er typisk klassifisert som begrenset risiko. De er lovlige, men krever åpenhet og informasjonsplikt.

Trenger jeg DPIA for et AI-møteverktøy?

Det er anbefalt for alle AI-møteverktøy og påkrevd hvis verktøyet brukes til evaluering av ansatte eller prosesserer sensitive data.

Gjelder AI Act for verktøy fra USA-leverandører?

Ja. AI Act gjelder alle KI-systemer som brukes i EU/EØS, uavhengig av hvor leverandøren er basert.

Hva er straffen for brudd?

Opptil 35 millioner euro eller 7 % av global omsetning, høyere enn GDPR (20M / 4 %).

Må jeg informere møtedeltakere om at AI brukes?

Ja. Både GDPR og AI Act krever det. For usynlige verktøy (som Dara) anbefaler vi en kort informasjon i møteinnkalling eller agendaen.

Kan jeg bruke AI-møteverktøy til å evaluere ansatte?

Det kan gjøre bruken til høy risiko under AI Act. Følelsesgjenkjenning (sentiment-analyse av ansattes stemmer) er eksplisitt forbudt. Prestasjonsovervåking krever streng compliance.

Les mer

Prøv Dara gratis i 7 dager

Last ned appen og test Dara i neste møte.

MacLast ned gratis

Les også

Tilbake til bloggen
KI-loven og AI Act: Hva betyr den nye loven for AI-møteverktøy i Norge? | Dara