IT og digitalisering
Gennemsigtighedskrav i AI Act: Er din AI-løsning til at forstå?

EU’s AI Act stiller nye og ambitiøse krav til virksomheder, der bruger eller udvikler AI – særligt når det gælder såkaldte high-risk systemer. En af kerneforpligtelserne er, at beslutninger truffet af AI skal kunne forklares, dokumenteres og overvåges.
Men hvordan lever du op til kravet om forklarlighed i praksis – uden at være AI-udvikler?
Forklarlig AI (explainable AI eller XAI) handler ikke nødvendigvis om at gøre modellerne simple – men om at gøre dem gennemsigtige og ansvarlige.
AI Act, som blev vedtaget i marts 2024 og træder gradvist i kraft fra 2. halvår 2025, stiller krav om, at du som virksomhed skal kunne:
- dokumentere, hvilke data der er brugt til at træne modellen,
- beskrive formål, risici og kendte begrænsninger,
- forklare, hvordan systemet træffer sine beslutninger,
- sikre, at mennesker kan overvåge og om nødvendigt gribe ind og
- informere brugerne, når de interagerer med AI.
AI Act – hvornår og hvordan:
- Vedtaget i marts 2024
- Træder gradvist i kraft fra 2. halvår 2025
- Fuld implementering i 2026
- Krav om gennemsigtighed, forklarlighed og menneskelig overvågning
- Dokumentation er centralt for både high-risk og generel brug
Krav om systematisk dokumentation
Den måske vigtigste brik i at leve op til kravene er systematisk dokumentation. Her kan etablerede standarder og værktøjer gøre det lettere at komme i mål:
- Datasheets for datasets giver et overblik over, hvor data kommer fra, og hvordan de er indsamlet, renset og anvendt.
- Model cards giver en samlet beskrivelse af AI-modellens funktion, begrænsninger, præstationsmål og kendte bias.
Begge værktøjer gør det muligt at kommunikere med både regulatorer, forretningspartnere og interne beslutningstagere.
Dokumentationen er ikke kun vigtig for compliance – men også for at kunne stille de rigtige krav til dine leverandører og sikre, at du ikke hæfter for fejl, du ikke forstår.
Brugeren skal med
AI Act lægger også vægt på, at brugere skal informeres om, at de interagerer med et AI-system – og at de skal kunne forstå, hvordan og hvorfor systemet når frem til en anbefaling eller beslutning.
Det stiller krav til kommunikation og design. Du skal kunne præsentere informationen klart – og sikre, at der er gennemsigtighed, også når brugeren ikke er dataekspert.
Er du klar?
Gennemsigtighedskravene i AI Act angår hele organisationen. Hvis du arbejder med AI-løsninger, rådgivning eller compliance, bør du allerede nu sikre, at:
- der er styr på dokumentation af data og modeller,
- I kan forklare og begrunde modellens beslutninger og
- I kan vise, at menneskelig kontrol er muligt og reelt.
Det handler ikke kun om at efterleve regler – men også om at opbygge tillid og ansvarlighed omkring AI-løsninger, der bliver en stadig større del af forretningen.
Læs mere:
Kontakt
Få hjælp nu
Find relevante, kvalitetssikrede kurser og efteruddannelse.