IT og digitalisering
Sådan sikrer du compliance med AI Act: Trin-for-trin vejledning

EU’s AI Act, der trådte i kraft den 1. august 2024, er den første omfattende regulering af kunstig intelligens og har til formål at sikre ansvarlig og gennemsigtig anvendelse af AI-teknologi. De fleste krav bliver først gældende fra 2. august 2026, hvilket giver virksomheder tid til at forberede sig.
Hvis din virksomhed udvikler, implementerer eller anvender AI, er det afgørende at forstå og efterleve de nye regler. Denne artikel guider dig gennem de nødvendige skridt for at sikre compliance med AI Act.
1. Forstå AI Act og hvor du placerer dig
AI Act opdeler AI-systemer i fire risikokategorier, hvor hvert niveau har forskellige krav til compliance:
- Forbudte AI-systemer – AI-løsninger med uacceptabel risiko, såsom masseovervågning og social scoring.
- Højrisiko-AI – AI i kritiske sektorer, hvor strenge krav gælder.
- Begrænset risiko – AI med visse gennemsigtighedskrav, f.eks. chatbotter og deepfake-generatorer.
- Minimal risiko – AI uden specifikke reguleringskrav, men hvor god praksis anbefales.
Derudover opstiller AI Act krav om:
- Transparens – Brugere skal informeres, når de interagerer med AI-systemer, herunder hvordan og hvorfor AI’en træffer beslutninger. For højrisiko-AI kan der være yderligere krav til dokumentation og sporbarhed, så beslutningsgrundlaget kan efterprøves.
- Human oversight – AI-systemer med høj eller begrænset risiko kræver menneskelig kontrol og mulighed for at tilsidesætte automatiserede beslutninger, især når systemerne har direkte konsekvenser for individers rettigheder eller sikkerhed.
- Datasikkerhed – AI-systemer skal være designet til at forhindre bias, diskrimination og datasårbarheder. Desuden skal systemet tage højde for potentielle cybertrusler og uautoriseret adgang til følsomme data.
- Dokumentationspligt – Organisationer skal kunne redegøre for deres AI-systemers træningsdata, beslutningsprocesser og sikkerhedsforanstaltninger. Dette kan indebære detaljerede rapporter til tilsynsmyndigheder, gennemsigtighed over for brugere, og en klar strategi for dokumentation ved eventuelle revisioner.
Identificér hvilken kategori din virksomheds AI-systemer tilhører, og sørg for at have de nødvendige dokumentations- og kontrolmekanismer på plads.
2. Kortlæg ansvar og aktører i din organisation
AI Act identificerer flere centrale aktører med specifikke forpligtelser:
- Udviklere (leverandører) – Ansvarlige for at designe AI-systemer i overensstemmelse med reguleringen og sikre dokumentation.
- Distributører – Sikrer, at de AI-produkter, de videresælger, overholder lovgivningen.
- Brugere (operatører) – Ansvarlige for korrekt anvendelse af AI-systemer og overholdelse af brugsrestriktioner.
- Importører – Har ansvar for at sikre, at AI-produkter, der bringes ind i EU, overholder lovgivningen.
- Autoriserede repræsentanter – For virksomheder uden for EU er det obligatorisk at have en juridisk repræsentant i EU, der står inde for overholdelse af AI Act.
For at opfylde compliance-kravene er det vigtigt at definere virksomhedens rolle og tilhørende forpligtelser. Der bør etableres klare procedurer for, hvordan hver aktør håndterer deres ansvar, herunder dokumentation, risikostyring og rapportering.
Kortlæg din virksomheds rolle og sørg for, at de rette ansvarsområder er fordelt blandt dine medarbejdere. Udpeg dedikerede compliance-ansvarlige for AI-projekter og implementér interne retningslinjer for overholdelse af AI Act.
3. Implementér en AI-compliance strategi
For at sikre en gnidningsfri implementering af AI Act bør du etablere en struktureret compliance-strategi:
- Gennemfør en risikovurdering af jeres AI-systemer.
- Etabler governance-strukturer med interne retningslinjer og kontroller.
- Dokumentér AI-systemernes beslutningsprocesser og sikre forklarbarhed.
- Udfør løbende audits for at sikre overholdelse af AI Act.
4. Risikovurdering: Sådan opfylder du kravene i AI Act
En af de vigtigste compliance-krav i AI Act er risikovurdering af AI-systemer. Dette indebærer:
- Identificering af potentielle risici ved AI-systemets brug.
- Gennemsigtighed – Kan beslutningsprocessen forklares?
- Datasikkerhed og bias-håndtering – Er systemet trænet på fair og repræsentative data?
- Overvågning og opdatering – Hvordan håndteres ændringer og forbedringer?
Brug eksisterende frameworks som ISO 42001 (AI-governance) til at systematisere jeres compliance-strategi.
5. Dokumentation og gennemsigtighed – dit juridiske grundlag
For at opfylde AI Act’s krav om ansvarlighed og gennemsigtighed skal du sikre:
- En grundig teknisk dokumentation af AI-systemets funktionalitet.
- En forklarbarhedsmekanisme, der sikrer, at slutbrugere kan forstå systemets beslutninger.
- Datasikkerhed og privacy protection, især ved brug af personfølsomme oplysninger.
Sørg for, at din virksomhed har klare retningslinjer for AI-governance og compliance-kontrol.
6. Kontinuerlig overvågning og opdatering af AI-systemer
Compliance er aldrig en engangsøvelse – AI-systemer skal overvåges og justeres i takt med nye lovgivningskrav og teknologiske udviklinger:
- Løbende evaluering af AI-modeller for bias og fairness.
- Regelmæssig opdatering af compliance-strategier i takt med nye EU-retningslinjer.
- Træning af medarbejdere i ansvarlig brug af AI.
Læs mere:
Kontakt
Få hjælp nu
Find relevante, kvalitetssikrede kurser og efteruddannelse.