AI-forordningen er endelig på plads – hvad nu?

Skrevet af

mathias andersen Module
Mathias Mølsted Andersen

Senior Associate
Danmark

Jeg er advokat i vores Tech & Comms team i København, hvor jeg rådgiver om kontraktuelle og regulatoriske forhold.

mathias jakobsen Module
Mathias Nybo Jakobsen

Associate
Danmark

Jeg er advokatfuldmægtig i vores danske persondatateam, hvor jeg arbejder med databeskyttelsesret (GDPR) og kommercielle problemstillinger med fokus på at finde en pragmatisk løsning for vores klienter.

lau jorgensen Module
Lau Normann Jørgensen

Partner
Danmark

Jeg er en partner i vores internationale Tech & Comms team, hvor jeg rådgiver om komplekse teknologi- og outsourcing-projekter. Jeg har været involveret i nogle af Danmarks mest innovative og kritiske teknologidrevne infrastrukturprojekter.

Den længe ventede AI-forordning blev den 22. januar lækket i sin endelige version. Vi kender derfor teksten med undtagelse af finpudsninger og formaliteter. Den endelige tekst forventes tidligst offentliggjort i EU-Tidende i maj måned Denne artikel er den første i en serie af artikler, hvor vi dykker ned i betydningen af AI-forordningen, hvad AI-forordningen vil betyde og hvad reglerne indebærer af praktisk arbejde for at sikre compliance

Vi vil udgive artikler om følgende i løbet af de næste par måneder:
AI-forordningen er endelig på plads – hvad nu?
AI-forordningen og compliance – Hvem skal gøre hvad, og hvornår?
Hvad betyder den "risikobaserede tilgang" i virkelighedens verden?

Denne artikel handler om de vigtige afklaringer, som den endelige tekst giver.

AI-systemer – Flere systemer vil være omfattet af reglerne

I den endelige tekst er definitionen af ”AI-systemer” ændret . AI-systemer defineres nu som “ […] machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments”

Formuleringen stemmer nu i højere grad overens med OECD’s definition af AI-systemer, og har en mere omfattende tilgang, idet definitionen nu dækker visse systemer, der tidligere ikke ville være omfattet. Dette ses især ved udvidelsen af kravet om "a given set of human-defined objectives" til at omfatte både "explicit or implicit objectives" uanset deres oprindelse. Desuden er den udtømmende liste over måder, et AI-system skal være udviklet på, for at være omfattet, blevet fjernet fra bilag I. Det må forventes, at stort set alle AI-systemer, uanset type og udviklingsmetode, vil være omfattet af den nye definition.

Højrisikosystemer– nu med klare undtagelser  

Højrisikosystemer er AI-systemer, der kan have en negativ påvirkning på menneskers sikkerhed eller fundamentale rettigheder. Et AI-system anses bl.a. for at udgøre en høj risiko, hvis det er beregnet til at blive anvendt som en sikkerhedskomponent i et produkt, eller i sig selv udgør et produkt omfattet af anden EU-lovgivning anført i forordningens bilag II (f.eks. produktsikkerhedslove).

AI-systemer der allerede anses for at være højrisiko er angivet i forordningens bilag III. Et eksempel er et AI-system beregnet til rekrutteringsprocesser, hvor systemet foretager en screeningproces ved til- eller fravalg og filtrering af kandidater på baggrund af modtagne ansøgninger mv.  

Hidtil var et højrisikosystem kun undtaget fra kravene, hvis systemets output alene ville være ”accessorisk” i den aktivitet, AI-systemet ville blive brugt til. Hvornår et output var accessorisk var ikke nærmere fastlagt, og det ville have været svært at vurdere, om ens AI-system ville være omfattet af undtagelsen. 

I den endelige tekst er der indført en klarere række undtagelser til de AI-systemer, der er omfattet af bilag III, der giver et bedre vurderingsgrundlag for at vurdere, om et AI-system er et højrisikosystem. 

Undtagelserne gør sig gældende, når AI-systemet ikke udgør en risiko for skade på fysiske personers helbred, sikkerhed og grundlæggende rettigheder eller ved at have indflydelse på en beslutningstagning. Et AI-system udgør ikke en sådan risiko, hvis dens brug er begrænset til ét af nedenstående formål:   

at udføre mindre, lavpraktiske, rutinemæssige opgaver, 
at forbedre en aktivitet, der allerede er udført af et menneske,  
at finde mønstre i beslutningstagning eller afvigelser fra tidligere mønstre i beslutningstagning, uden at erstatte den tidligere beslutning, som et menneske har taget.
at   udføre en forberedende opgave til en vurdering, der er relevant ift. eksemplerne i bilag III.

Et AI-system betragtes dog altid som højrisiko, hvis det bruges til profilering af fysiske personer.

Det er vigtigt at tænke over, hvordan man planlægger sit arbejde og hvor meget man vil bruge et AI-system. Sondringen er vigtig, for hvis man bruger AI-systemet til mere end bare hjælp, og systemets resultat anses som det endelige svar på opgaven, risikerer man, at systemet betragtes som højrisiko. Dette betyder, at der er ekstra krav, såsom at gemme logfiler og rapportere regelmæssigt, når man bruger AI-systemet. Som bruger skal man afveje, om man vil undgå et højrisiko-AI-system, eller om man vil bruge det og opfylde de krav, det medfører.

Vi vil i en senere artikel behandle de compliancekrav AI-forordningen påfører både leverandører og brugere.

Indberetningspligt og udvidelse af ”alvorlige hændelser”

Den endelige tekst tilføjer eksempler på "alvorlige hændelser" - hændelser med negativ indvirkning. Leverandøren af AI-systemet har normalt pligt til at indberette, men brugeren kan også have denne pligt. Tidligere blev kun visse typer hændelser betragtet som alvorlige, som menneskers død eller alvorlig skade på helbred, ejendom, miljø og kritisk infrastruktur. Den endelige tekst udvider og præciserer disse hændelser og inkluderer nu også AI-relaterede overtrædelser af EU-retten, der sigter mod at beskytte grundlæggende rettigheder. Bestemmelsen om skade på ejendom eller miljø er nu individuel og adskilt fra legemsskade.

AI-afgørelser der påvirker grundlæggende rettigheder kan være myndighedsafgørelser om retten til dagpenge, arbejdsskadeerstatning, børnebidrag, ret til samvær og lignende. 

Beskyttelse af personoplysninger er ligeledes beskyttet i EU’s Charter, og AI-systemer der behandler personoplysninger, vil derfor også være omfattet af underretningsforpligtelsen.  

Man kan med fordel allerede nu gøre sig overvejelser, om man vil benytte AI til behandling af personoplysninger og i den forbindelse opdatere sin databeskyttelsesretlige dokumentation, herunder konsekvensanalyser og implementere passende sikkerhedsforanstaltninger.

Opsummering

De væsentligste ændringer i den endelige tekst er følgende:

Forordningen definerer AI bredt, og man kan som hovedregel antage, at de fleste AI-systemer er omfattet af forordningens anvendelsesområde - selv enkle maskinlæringsløsninger eller mindre omfattende generative AI-systemer.
Der er nu indført klarere kriterier for, hvornår et AI-system, der normalt ville blive betragtet som et højrisikosystem, er omfattet af undtagelserne. Dette vil gøre det nemmere at håndtere og håndhæve forordningen i praksis.
Der er tilføjet og individualiseret flere kategorier af alvorlige hændelser, hvilket betyder, at leverandører og i visse tilfælde brugere af AI-systemer skal være særligt opmærksomme på virkningerne af AI-systemet og hvordan man bedst mindsker disse virkninger.

Vi hjælper allerede nu mange af vores klienter med at forberede sig på AI-forordningen.
Kontakt os, hvis du vil vide, hvordan AI-forordningen vil påvirke din virksomhed, og hvordan du kan forberede dig. 
 

Seneste nyheder

Vis mere
NIS 2 sikkerhedskrav

Hvad indebærer det nye danske NIS 2 lovforslag – webinar forklarer de centrale juridiske krav

okt 02 2024

Læs mere
NIS 2 sikkerhedskrav

NIS 2 bliver om lidt til virkelighed i Danmark. Hvad skal din virksomhed være opmærksom på?

sep 10 2024

Læs mere

Principiel dom om fortolkning af ansvarsbegrænsningsklausul

aug 09 2024

Læs mere