Kaller KI til rekruttering et «HR-mareritt»
– Hvis en kandidat blir valgt bort uten at et menneske faktisk vurderer dem, kan det være ulovlig, advarer Ina Cabanillas Hansen.
(Innlegget ble først publisert på forfatterens LinkedIn, som en reaksjon på kode24s artikkel "Får 10 millioner til å sile nyutdanna jobbsøkere med KI")
Dette er et HR-mareritt, og vi snakker altfor lite om det:
Flere selskaper bruker nå KI til å sile jobbsøkere.
CV-er. Søknader. LinkedIn-profiler.
Det høres effektivt ut.
Men hvis en kandidat blir valgt bort uten at et menneske faktisk vurderer dem, kan det være ulovlig.
GDPR og KI i rekruttering
GDPR er tydelig:
Du har rett til å ikke bli vurdert utelukkende av en algoritme, når avgjørelsen har stor betydning for livet ditt. Og få ting betyr mer enn å få eller miste en jobbmulighet.
KI i rekruttering er lov. Men bare når:
- KI hjelper, ikke bestemmer.
- Et menneske tar den reelle avgjørelsen.
- Kandidaten får informasjon og kan be om forklaring.
KI er ikke nøytral
Og så til det mange overser: KI er ikke nøytral. Den arver historien vår.
De fleste modeller trenes på historiske ansettelser.
Gamle valg. Gamle mønstre. Gamle skjevheter.
Resultatet?
Det vi har gjort før, blir normen for hvem som anses som «riktig» kandidat.
Dette er ikke et teknologiproblem. Det er et ansvarsproblem.
Erstatter ikke bias
Det finnes et alternativ: Kunstige (syntetiske) datasett.
Datasett som er konstruert for å representere bredde, variasjon og kompetanse, uten persondata, uten navn, kjønn, alder eller bakgrunn som proxyer.
Men syntetiske datasett i rekruttering er ofte for små, for konstruerte og for teoretiske. Vi har rett og slett ikke store nok, representative datasett for hva «god kandidat» faktisk er på tvers av roller, bransjer og kontekster.
Resultatet?
- Upresise vurderinger.
- Falsk objektivitet.
- Beslutninger uten solid faglig eller statistisk grunnlag.
Da erstatter vi ikke bias.
Vi erstatter den bare med usikkerhet forkledd som nøytralitet.
Ikke et teknologiproblem
Dette er ikke et teknologiproblem.
Det er et ansvarsproblem.
Og det er HR som sitter igjen med risikoen.
Effektivitet kan aldri være viktigere enn rettferdighet.
Skala kan aldri erstatte ansvar.