– KI er et stort problem for likestilling
Mye av dataen kunstig intelligens er trent på er direkte diskriminerende, påpeker utvikler Elise Kristiansen. – Det er strukturell automatisering av gamle kjønnsroller, skriver hun.
Gratulerer med overstått kvinnedag!
For noen måneder siden lanserte en influenser et nytt produkt som skal utkonkurrere markedsføringsbransjen ved å automatisk generere innhold i sosiale medier ved bruk av KI.
KI-genererte bilder tar over en stadig større del av vår digitale hverdag, tekst produseres og publiseres hyppigere enn noen gang, og søkefunksjonene vi bruker er i økende grad KI-styrte.
Vi blir til og med pushet til å redigere våre egne, menneskeskrevne innlegg med kunstig intelligens før vi publiserer dem.
Problemet med KI
«Ah, enda et negativt KI-innlegg», tenker noen kanskje. Da har du helt rett.
For personlig føler jeg fortsatt at vi ikke snakker nok om de potensielle alvorlige konsekvensene ved hodeløs bruk av KI.
Så la oss se på hva KI er for noe og hvorfor kunstig intelligens er et stort problem for likestilling.
Problemet med KI, og spesielt store språkmodeller, er at informasjonen du får, er basert på det du mest sannsynlig ønsker å høre, ikke nødvendigvis det som faktisk er sant.
Diskriminerende data
Per i dag er dataene KI-systemer trenes på preget av historien vår, og mye av dataen er direkte diskriminerende.
De er hentet fra enorme mengder tekst, bilder og innhold produsert gjennom årenes løp, i samfunn som langt fra har vært likestilte. Den har lært av fortiden.
Fordi KI ikke skiller mellom forskning og fordommer, mellom analyser og meninger, kan den presentere de høyeste stemmene som sannhet, nettopp fordi det er det folk ønsker å høre.
KI-feil rammer kvinner
KI skiller heller ikke mellom det som er skrevet i sinne, det som er skrevet som propaganda, og det som er skrevet av frykt i en tid da folk ikke visste bedre.
Den er trent på store mengder tekst og lærer statistiske mønstre i språk, ikke sannhet i filosofisk forstand.
Hvis vi ikke er bevisste på hvor og hvordan vi implementerer og tilgjengeliggjør AI, ser vi allerede risikoer som særlig rammer kvinner:
Diskriminering innenfor ansettelser når firmaer bruker KI-verktøy for å luke ut «de beste kandidatene».
Kvinner blir avkledd og får falske nakenbilder spredd av seg ved hjelp av generativ teknologi.
Potensielle lønnsforskjeller dersom KI-er skal være med å avgjøre hvem som er mest egnet for høyere lønn eller hvem som presterer «best».
Forskjell i studieretninger når KI-er gir forskjellige svar på studieanbefalinger ut fra om det er kvinner eller menn som spør.
Færre kvinnelige søkere til jobber hvis man bruker KI-er til å skrive stillingsutlysningene (stillingsannonser skrevet av KI-er har 40 prosent mer maskulint språk enn søknader skrevet av mennesker).
KI-feil framstår objektive
Dette er ikke enkeltstående hendelser. Det er strukturell automatisering av gamle kjønnsroller.
Men la oss også tenke noen steg framover.
For problemet er ikke bare at teknologien gjør feil, men den gjør gamle feil på en måte som fremstår objektiv.
Et av de store problemene med KI er at enhver del av en prosess der et menneske kan være fordomsfull, kan KI-en også være det.
Forskjellen er at teknologi legitimerer fordommer ved å få dem til å virke objektive og nøytrale. Det blir presentert som data og fakta.
Konservative strømninger
Samtidig ser vi politiske og kommersielle krefter som aktivt fremmer tradisjonelle kjønnsrollemønstre.
Konservative strømninger er i oppblomstring flere steder i verden, og digitale plattformer brukes målrettet til å påvirke holdninger og verdier.
Når KI i stadig større grad styrer hva vi ser, hva vi søker på, hva vi anbefales og hva vi eksponeres for, hvem sikrer at vi ikke systematisk dyttes i retning av gårsdagens normer og gammeldagse kjønnsroller?
Vi bør stille spørsmål
Vi bør være skeptiske når Instagram og Facebook foreslår at vi skal endre ordlyden i det vi skriver med KI.
Vi bør stille spørsmål ved produkter som erstatter menneskeskapt, nytenkende innhold med KI-generert gjentakelse av fortiden.
Og vi bør tenke oss nøye om før vi overlater stadig mer av den digitale virkeligheten vår til systemer vi vet er trent på en fordomsfull historie.
Hvordan kan vi bevege samfunnet fremover når verktøyene vi bruker vil ha oss bakover? Når vi blir hjemsøkt av egen fortid?
Bønn til utviklere
Likestilling har aldri kommet av seg selv, den er kjempet fram.
Og når vi ser faremomenter for at vi kan bli satt tilbake, må vi være tydelige.
Min bønn er derfor: Vær smart i møte med KI. Vær bevisst på utfordringene den har. Og tør å stå imot i tilfellene du vet KI kan ha en negativ påvirkning.
Vi utviklere har et spesielt ansvar for nettopp dette.