02.07.2020
3 min læsetid

Teknologi fjerner fordomme ved rekruttering

Med kunstig intelligens risikerer vi at forstærke skævheder i ansættelsesprocesser, og det er hverken godt for diversiteten eller den enkelte virksomhed. Det vil to iværksættere vende på hovedet med ny software.

Morten Scriver Andersen

af Morten Scriver Andersen

Jenifer Clausell-Tormon og Dignee Brandt fortæller om Develop Diverse til IDAs nye podcast Blinde vinkler i studiet. (Foto: Privat)

Et tæppe var alt, der skulle til.

I 1970’erne begyndte man i flere amerikanske symfoniorkestre at gennemføre auditions med musikerne gemt bag et scenetæppe. Herfra var det kun musikken, der talte. Væk var opmærksomheden på hudfarve, køn og skæve næser. Op gennem 90’erne steg andelen af kvinder i symfoniorkestre fra 5 til 25 procent.

Spørgsmålet er nu, om man kan trække tæppet for i andre brancher, så vi kan få mere diversitet på arbejdspladserne?

Mange virksomheder har med tjenester som HireView udliciteret dele af deres rekrutteringsproces til algoritmer, og det har ikke gjort spørgsmålet mindre relevant, fordi beslutningerne nu åbenlyst baseres på, hvad der har fungeret før i tiden. Det mener Kim Escherich, der rådgiver i AI og etik i IBM og er gæst i første afsnit af IDAs nye podcast Blinde vinkler.

“Hvis vi har haft en tradition de sidste 10 år med kun at ansætte hvide mænd med nogle bestemte kvalifikationer, vil algoritmen også have den fordom, når vi træner den. Så de ord og begreber, som kvinder eller ikke-hvide måtte have brugt falder igennem algoritmen. Den kan simpelthen ikke se dem, fordi de ikke eksisterer i dens begrebsverden.”

Spænder AI ben for kvinder, når de søger job?

Med hundredvis af ansøgninger til en enkelt stilling, kan virksomheder spare dyrebar tid ved brug af kunstig intelligens.

Podcast: Blinde vinkler

Bias er en uundgåelig del af vores liv. Den hjælper os til at forstå verden, men den er også med til at indsnævre vores verdenssyn og skabe blinde vinkler, som gør at nogle mennesker bliver efterladt i skyggen af det gode selskab.

I denne nye podcast fra IDA undersøger journalist Marie Høst hvor og hvordan brugen af kunstig intelligens skaber utilsigtede bias.

Find alle episoder her.

Du kan også finde den i iTunes eller din foretrukne podcatcher ved at abonnere på "IDA Podcast".

Vi prøver at gøre dem i stand til at tage en informeret beslutning. Så vi prøver at sige, ‘det her ord i den sammenhæng har stereotypiske konnotationer.

Jenifer Clausell-Tormon,
CEO og stifter, Develop Diverse

Flere virksomheder er begyndt at bruge kunstig intelligens i den første sortering af ansøgninger. Her vil en trænet algoritme på baggrund af historisk data finde frem til, hvilke ansøgninger der med størst sandsynlighed passer til de krav, virksomheden har stillet op.

Problemet er bare, at hvis vi tager vores beslutninger udelukkende på baggrund af historisk data, så risikerer vi ikke alene at reproducere strukturelle skævheder, men også at forstærke dem.

“Vi er biased som mennesker. Så i virkeligheden er AI bare en afspejling af den virkelighed, vi kommer fra med alle de fordomme, den kommer med. Så det er faktisk en stor opgave at undgå, at det sker,” siger Kim Escherich, der tidligere har haft ledelsesansvar i it-branchen.

“Jeg tænkte som leder, at jeg har behov for de skæve eksistenser, som måske ikke kan løfte os op, men løfte os i nye retninger. Jeg har ikke behov for dem, der ligner mig selv. Og det vil en algoritme jo aldrig se.”

Teknologien kan også vende bias på hovedet

I den lille startup Develop Diverse har man netop taget på sig at løse diversitetsproblemer i virksomheders måde at kommunikere på. Det har nemlig i sidste ende stor indflydelse på, hvilke medarbejdere de får.

Develop Diverse har udviklet et software-værktøj, der analyserer en tekst for stereotypt sprogbrug omkring køn, etnicitet og alder og foreslår ikke-stereotype alternativer. Værktøjet kan for eksempel bruges i forbindelse med rekruttering, når der skrives jobopslag for at nå en bredere og mere forskelligartet målgruppe.

For eksempel har Develop Diverse analyseret sig frem til, at “analytisk” er en maskulin stereotyp og “passioneret” er en feminin stereotyp.

Større virksomheder som Amazon, TDC og Danske Bank har allerede været med til at teste værktøjet, fortæller CEO og stifter af Develop Diverse, Jenifer Clausell-Tormon.

“Vi prøver at gøre dem i stand til at tage en informeret beslutning. Så vi prøver at sige, ‘det her ord i den sammenhæng har stereotypiske konnotationer. Hvis dit formål er at skrive en mere inkluderende tekst, anbefaler vi, at du ændrer ordet’. Og så giver vi alternativer, som du kan vælge imellem,” siger hun i podcasten Blinde vinkler.

Sproget er magtfuldt

Jenifer Clausell-Tormon mener, at sproget er magtfuldt. At det former vores kultur, ligesom vores kultur former sproget. Men ofte tænker vi ikke over, at vores sprog taler til visse målgrupper og dermed ekskluderer andre. Derfor har Develop Diverses software den tilsigtede sideeffekt at gøre deres brugere opmærksomme på deres egen ubevidste bias gennem sproget.

Jenifer Clausell-Tormon bakkes op af sin CTO (Chief Technology Officer), Dignee Brandt. Brandt mener, at det er afgørende, at vi bliver opmærksomme på vores ubevidste bias på en lettilgængelig måde i stedet for at blive sendt på et obligatorisk kursus et par gange om året.

“Jeg tror, at hvis vi sænker barren, vil flere mennesker prøve at gøre en forskel. Hvis du sender dem til obligatorisk bias-kursus en gang i mellem, vil det ikke hjælpe. Men hvis du giver dem en super low-key og intuitiv løsning, som de bare kan bruge i deres egne processer, så bliver det utrolig nemt,” siger Dignee Brandt.

Hør hele første afsnit af IDAs nye podcast Blinde vinkler, hvor der blandt andet bliver diskuteret menneskelig intuition, behovet for skæve medarbejdere og hvordan Develop Diverse’s software er udviklet.