Kommentar af 
Johan Busse

Johan Busse: Virksomheder kan spare penge ved at bruge HR-tech, når der skal rekrutteres. Men pas på med det

HR-tech kan spare virksomheder for mange penge, når der skal rekrutteres. Men selv hvis 'briller' og det 'ikke at blive ansat' korrelerer statistisk, så ønsker vi ikke, at vores HR-tech sorterer bebrillede kandidater fra. Derfor har vi brug for højere kvalitetskrav, skriver Johan Busse. 

Foto: Asger Ladefoged/Ritzau Scanpix
Johan Busse
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Det danske arbejdsmarked efterspørger kvalificerede kandidater. Ethvert jobopslag udløser en tidskrævende lavine af ansøgninger, og tid er penge. Derfor er brugen af datadreven HR-tech stigende. Men der er dataetiske faldgruber, som ledere bør være opmærksomme på.

Sælgere af HR-tech lover en effektiv, objektiv og præcis rekruttering ved brug af big data, algoritmer og kunstig intelligens (AI). En algoritme kan på få sekunder sortere hundredvis af ansøgninger. Under videointerviews kan en AI scanne ansøgernes stemme, mimik og kropssprog, vurdere deres personlighedstræk og rangere dem. En algoritme kan også sende afslagsbrevene. Uanset om det er 73 eller 3073, så er der tid at vinde.

Håbet for brugen af HR-tech er altså, at det kan spare virksomhederne for mange arbejdstimer og give relevant databaseret input til valget af den rette kandidat. Men brugen af redskaberne rummer dataetiske udfordringer. Lad os se på tre eksempler.

En AI trænes på tidligere sager, hvor den finder sammenhænge, som den bruger til at vurdere nye sager ud fra. Et potentielt problem er her, at de sammenhænge, den finder, ikke nødvendigvis er årsagssammenhænge, men kan være tilfældige korrelationer. HR-tech har eksempelvis fravalgt ansøgere, fordi de brugte briller.

Men det er ikke fagligt diskvalificerende at bære briller. Selv hvis 'briller' og det 'ikke at blive ansat' korrelerer statistisk, så ønsker vi ikke, at vores HR-tech sorterer bebrillede kandidater fra. Det ville være at fravælge dem på et fagligt ubegrundet og uretfærdigt grundlag, og det er hverken jobansøgere eller arbejdsgivere tjent med.

Selv hvis 'briller' og det 'ikke at blive ansat' korrelerer statistisk, så ønsker vi ikke, at vores HR-tech sorterer bebrillede kandidater fra

Johan Busse
Formand for Dataetisk Råd

Pseudovidenskab

Engang troede videnskabsfolk, at kranieformen afslører, om man er pålidelig eller kriminelt anlagt, såkaldt frenologi. Men også i dag popper pseudovidenskab indimellem op i udviklingen af HR-tech. Det kan basere sig eksempelvis på tvivlsomme antagelser om, at kropssprog, mimik og svarlængde siger noget om en persons egnethed til et job. Det, at der er brugt big data i udviklingen af en AI, er altså ikke en garanti for, at den leverer nyttig viden, hvis det ikke er relevant data, der er brugt.

De kvaliteter, der kendetegner en god medarbejder, er ikke altid nemt oversættelige til ting, man kan måle på. Hvad måler du på, hvis du skal måle en medarbejders kreativitet, empati, sociale tilpasningsevne eller lederpotentiale? Det er netop kvalitative og ikke kvantitative egenskaber, du skal indfange.

Når man indkøber HR-tech, bør man derfor være kritisk forbruger: Fortæller det, der måles på, virkelig noget om kandidatens jobegnethed? Hvis ikke, er vi igen ude i en urimelig behandling af ansøgerne – og noget der ikke tegner godt for firmaets bundlinje.

Diskrimination

Når fortidens ansættelsesbeslutninger var diskriminerende over for eksempelvis ældre, kvinder og minoriteter, så vil en rekrutterings-AI trænet på dem fortsætte og til tider forstærke mønsteret. AI kan også være trænet på et for smalt datagrundlag. Ansigtsgenkendelsesteknologi er eksempelvis dårlig til at genkende ansigter hos mennesker med mørk hud, blandt andet fordi de primært er trænet på videoer af hvide.

De kvaliteter, der kendetegner en god medarbejder, er ikke altid nemt oversættelige til ting, man kan måle på. Hvad måler du på, hvis du skal måle en medarbejders kreativitet, empati, sociale tilpasningsevne eller lederpotentiale?

Johan Busse
Formand for Dataetisk Råd

Derfor analyseres mimik og andre visuelle ansigtstræk ikke med samme præcision på tværs af hudfarve. Bruges HR-tech i rekruttering, kan det således føre til uretfærdig forskelsbehandling. Ud over at den type diskrimination er moralsk problematisk, er den også ulovlig.

En anden kilde til lovbrud stammer fra 'black boxes': AI's forudsigelses- og beslutningsprocesser er ofte uigennemskuelige, selv for programmørerne. Men i det offentlige har en kandidat et lovmæssigt krav på at kunne få en forklaring på, hvad der lå til grund for et jobafslag. Hvis en vurdering fra en black box-AI har udgjort en del af beslutningsgrundlaget for afslaget, kan arbejdspladsen næppe leve op til loven, og begrundelsen bliver reelt en efterrationalisering.

Brug din kritiske sans

Svaret på de dataetiske udfordringer er ikke at droppe brugen af HR-tech. Det er uproblematisk, at en algoritme frasorterer kandidater, der ikke lever op til uddannelseskravet, og en AI kan udpege egnede kandidater, vi overser på grund af vores egne blinde vinkler og fordomme. Løsningen er kun at bruge AI og algoritmer som supplement, hvor det giver fagligt mening, samt at stille højere krav til kvaliteten af den HR-tech, der skal understøtte rekrutteringsbeslutninger. Gør vi ikke det, kan vi lige så godt vende tilbage til måling af kranieform, når der skal hyres nye medarbejdere.

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


0:000:00