13.07.2021
3 min læsetid

Ny lovgivning skal have et dataetisk tjek

Med udsigt til en langt mere omfattende indsamling og samkøring af data skal det sikres, at politikerne kan forholde sig til, hvilke dataetiske konsekvenser ny lovgivning vil have

Birgitte Arent Eiriksson, vicedirektør Justitia, Rikke Frank Jørgensen, seniorforsker Institut for Menneskerettigheder , Grit Munk, chefkonsulent IDA

af Birgitte Arent Eiriksson, vicedirektør Justitia, Rikke Frank Jørgensen, seniorforsker Institut for Menneskerettigheder , Grit Munk, chefkonsulent IDA

Bandwidth computer

Politikere skal konstant tage stilling til, hvor der skal strammes op og hvor der skal udvikles og investeres – og politikere har holdninger til, hvordan samfundet bør se ud. Derfor er det nødvendigt, at de dataetiske konsekvenser af ny lovgivning står meget klarere, end tilfældet er i dag. Sker det ikke, vil det ikke være muligt at tage et bevidst og oplyst valg, når der skal stemmes for og imod.

Kunstig intelligens, automatiseret sagsbehandling og prædiktive modeller er buzzwords i det offentlige Danmark, som i stigende grad sigter efter at transformere den analoge forvaltning til en mere effektiv, tids- og ressourcebesparende, digital forvaltning. Danmark er et foregangsland, når det kommer til at benytte digitalisering til at understøtte den offentlige sektors – og den private sektors – arbejde. Det vidner om, at vi er modige og tillidsfulde nok til at lade nye teknologier komme ind i vores dagligdag og at vi har de rette kompetencer til at kunne agere digitalt.

Men de digitale systemer, som vi implementerer, er med til grundlæggende at ændre det Danmark, vi lever i. Der er næppe politikere, der ønsker at ændre til noget værre, men det kan være svært at gennemskue, hvilke utilsigtede konsekvenser, der følger med. Det, der ligner en ansvarlig, effektiv løsning som sikrer mere tid til varme hænder og grundig faglig sagsbehandling, kan medføre traumatiske konsekvenser som stigmatisering, fejl i sagsbehandling og på længere sigt manglende tillid til den digitale offentlige sektor, som vores velfærdssamfund er så afhængig af.

Dataetik er derfor et væsentligt redskab, fordi dataetik går længere end de lovkrav til konkret datahåndtering, som vi finder i GDPR-reglerne. Dataetik handler om at se bredere på samfundsmæssige og menneskelige konsekvenser. Hvor lovgivning er til for at skærme borgerne mod de mest åbenlyse fejl og misbrug af data, så handler dataetik om at være bevidst om, hvor vi bringer samfundet hen med den konkrete brug af et bestemt teknologisk værktøj.

Det er hele forudsætningen for, at politikerne kan træffe et oplyst valg, når de skal stemme om en ny lov. Dataetiske konsekvensvurderinger vil gøre det muligt for politikere at overskue og stille spørgsmål til eventuelle utilsigtede fejl i lovgivningsarbejdet. Der er derfor brug for, at lovgiverne stiller spørgsmål ved, om digitalisering er ønskelig og forsvarlig over for borgerne, og hvordan det kommer til at påvirke sagsbehandlingen af den enkelte borger.

Eksempelvis håndterer vi i Danmark ofte borgerne forskelligt, for at sikre os, at alle hensyn tages med i sagsbehandlingen, og at alle dermed bliver behandlet lige, når beslutningen tages. Men i en digital proces bliver hensyn standardiserede, og vi risikerer, at borgere, der falder lidt udenfor rammen, ikke får den hjælp og den sagsbehandling, de har krav på.

Som et trist eksempel har vi set, at kunstig intelligens i børnesager, hvor algoritmer skulle hjælpe socialrådgiverne med at få øje på de mest kritiske sager, ramte skævt. Algoritmernes vurdering af, hvor kritiske de enkelte indberetninger var, viste sig hurtigt at afspejle tidligere sagsbehandlingsmønstre, hvor mistrivsel oftere bliver opdaget hos ældre børn. Det medførte en række fejl – eller bias – med den konsekvens, at alvorlige sager hos helt små børn blev nedjusteret af algoritmen, simpelthen fordi børnene var yngre.

Desværre er vi alt for ofte bagud, når det kommer til at overveje, hvilke utilsigtede konsekvenser det har, når der skabes profiler af os som privatpersoner uden, at der tages højde for fejl i datamaterialet, eller når tredjepart pludselig får ejerskab over vores digitale fodspor eller endog fysiske prøver. Måske har vi ovenikøbet ikke givet samtykke, eller er uvidende om det, og kan derfor hverken protestere eller sikre, at fejlen bliver rettet.

At kunne drøfte nye teknologier og deres etiske problemstillinger indenfor hver enkelt lovforslag, forudsætter naturligvis, at vi har en fælles forståelsesramme for, hvad dataetik betyder. Ifølge det regeringsnedsatte Dataetisk Råd, så skal dataetik forstås som forholdet mellem teknologi og borgernes grundlæggende rettigheder, retssikkerhed og grundlæggende samfundsmæssige værdier, som den teknologiske udvikling har givet anledning til at overveje. Begrebet omfatter etiske problemstillinger ved anvendelsen af data. Det kræver, at embedsmænd har redskaber og de nødvendige kompetencer til, at kunne se eventuelle dataetiske problemstillinger, fuldstændig som de i dag løber lovforslag igennem og kommer med en vurdering af om der er miljømæssige, økonomiske eller EU-retlige konsekvenser, som skal tænkes igennem. Redskaberne har vi allerede i form af f.eks. Dataetisk Råds ”Dataetisk vurderingsskema” og ”Dataetisk konsekvensanalyse”.

Dataetik er ikke en konstant faktor, som vi kan lovgive fremtidssikkert om. Det er en diskussion, vi som samfund må have løbende. Det er en faktor, som politikerne skal kunne tage højde for, når de lovgiver og finansierer nye teknologiske løsninger. Men for at det kan ske, skal politikerne vide, om der er dataetiske problemstillinger, der skal tages stilling til.