Frykter bias i AI: «Det handler om liv og helse»

– Vi kan ende opp med AI-systemer basert på gamle fordommer, og det kan få enorme konsekvenser for livene våre, skriver Jasvinder Sadana.

(Innlegget er skribentens egne meninger, og handler ikke om interne forhold i Bufdir.)

AI er en digital hjelper som egentlig er ganske smart, men kan være litt … menneskelig.

Og du vet hvordan vi mennesker kan være, ikke sant?

Vi har våre fordommer, gamle stereotyper og blindsoner. Det viser seg at vi kan ende opp med å overføre disse menneskelige trekkene til maskinene våre.

For ja, maskiner kan være fordomsfulle, og nei, det er ikke noe morsomt når det skjer!

Bias i AI: Et problem, eller?

Hva betyr egentlig bias i AI?

Jo, det er når en maskin lærer feil ting fordi den får feil data. Den lærer kanskje at alle kvinner ikke er like gode til å parkere bilen som menn (spoiler: det er ikke sant), eller at mennesker med mørk hudfarge ikke blir ansett som "like verdifulle" som mennesker med lys hud.

Og det er her problemet begynner: Vi kan ende opp med AI-systemer som er basert på gamle fordommer, og det kan få enorme konsekvenser for livene våre.

For å gjøre det klart – dette er ikke som at du får en feilmelding på mobilen fordi AI mener at du burde bruke en annen emoji til vennene dine. Nei, dette handler om skjevheter som kan påvirke liv og helse.

La oss ta et dypdykk i noen eksempler.

#1. Ansiktsgjenkjenning: Hvem er du, egentlig?

La oss begynne med noe som kanskje virker ganske ufarlig – ansiktsgjenkjenning.

Tenk deg at du står foran et kamera, smilende og klar for å bli gjenkjent, kanskje til en trygg inngang på jobben eller et selfiesystem som skal hjelpe deg med å logge inn. Men her er greia – AI-en som prøver å gjenkjenne ansiktet ditt kan faktisk være ganske dårlig til å gjenkjenne deg, hvis du ikke har et visst "standardutseende".

Forskning har vist at ansiktsgjenkjenningssystemer har en tendens til å ha problemer med å gjenkjenne kvinner, folk med mørkere hudfarge, og unge voksne. Det er som om disse systemene har en innebygd preferanse for "typiske" ansikter – og hvem bestemmer hva som er "typisk", egentlig?

Når et kamera er mer tilbøyelig til å gjenkjenne et hvitt, mannlig ansikt enn et mørkt ansikt, kan konsekvensene bli alvorlige. Det kan føre til at personer blir feildiagnostisert i sikkerhetssystemer, eller til og med at folk blir feilaktig arrestert – alt på grunn av en skjev algoritme som er trent på et datasett med en overvekt av hvite ansikter.

Så, neste gang du står foran et ansiktsgjenkjenningskamera og det ikke virker, kan det være maskinen som er skjev, ikke du.

#2. Helsevesenet: En dødelig skjevhet!

La oss gjøre det alvorlig: Nå handler det om liv og helse.

Når AI brukes til å hjelpe til med å diagnostisere sykdommer, kan den gjøre en fantastisk jobb. Men det er én stor hake – hvis dataene som AI-en er trent på, ikke er representative for hele befolkningen, kan det få katastrofale konsekvenser.

Hva skjer hvis du trener en AI på data fra et snevert, lite utvalg av befolkningen – for eksempel bare hvite menn fra storbyer? Vel, det kan føre til at AI-en ikke kan gjenkjenne eller korrekt diagnostisere sykdommer hos kvinner eller folk med mørkere hudfarge. Det er som å få et kart som kun viser vei til én type restaurant, men ingen informasjon om de andre stedene rundt.

Hvis en AI er trent på et ufullstendig datasett, risikerer vi at noen får feil behandling. Det kan bety at folk blir feildiagnostisert, eller at de ikke får den hjelpen de trenger i tide.

La oss si at du er en kvinne med et hjerteproblem, men AI-en er trent på data som primært omfatter mannlige pasienter. AI-en kan overse symptomer som er mer vanlige hos kvinner, og det kan føre til at du ikke får riktig diagnose. Dette kan bety forskjellen på liv og død.

#3. Kredittvurdering: Lån din fremtid på et skjevt grunnlag!

Her er en annen skremmende tanke: Hva om AI er det som bestemmer om du får lån, leie bolig eller til og med en jobb?

Ja, mange finansinstitusjoner bruker nå AI for å gjøre vurderinger basert på din økonomiske bakgrunn og kredittverdighet. Men hva hvis disse systemene er trent på data som allerede reflekterer samfunnets skjevheter?

Tenk deg et scenario hvor AI-en ser på gamle kredittvurderinger, og disse vurderingene kan ha blitt påvirket av fordommer mot visse etniske grupper eller kvinner. Hvis AI-en er trent på dette, kan det føre til at folk fra disse gruppene får høyere renter eller blir nektet lån på et urettferdig grunnlag. Det blir som å spille et spill der reglene allerede er rigget mot deg.

Og det er jo ikke akkurat så morsomt å finne ut at du ikke får lån på grunn av en algoritmes feilaktige vurdering.

«Når vi bygger AI, bygger vi ikke bare algoritmer; vi bygger en del av fremtidens samfunn.»

Hvorfor må vi ta dette på alvor?

Vi kan ikke bare riste av oss dette som "tekniske feil". Bias i AI er et alvorlig problem fordi det kan forsterke ulikheter i samfunnet. Når vi lar maskiner ta beslutninger om livene våre – som hvem som får behandling, lån eller jobb – må vi være sikre på at disse beslutningene ikke er basert på gamle fordommer eller diskriminerende mønstre.

Og det er her vi virkelig må være på vakt. Teknologi er ikke bare et sett med verktøy – det er en refleksjon av våre egne verdier.

Når vi bygger AI, bygger vi ikke bare algoritmer; vi bygger en del av fremtidens samfunn. Hvis vi ikke tar ansvar, risikerer vi at disse systemene blir en forlengelse av de samme skjevhetene vi prøver å bekjempe i det virkelige liv.

Så hvorfor skal vi bry oss? Fordi dette handler om rettferdighet. Dette handler om at alle mennesker – uavhengig av kjønn, etnisitet, eller bakgrunn – skal behandles rettferdig.

Og vi kan ikke la teknologi gjøre det motsatte. Vi har allerede nok utfordringer i samfunnet uten å gjøre disse ulikhetene verre med teknologiske systemer som kan være urettferdige.

Hvordan kan vi fikse problemet?

Så, hvordan fikser vi dette? Det er ikke lett, men det er mulig.

Her er noen tips:

  1. Anerkjenn biasen: Første steg er å innse at bias er der. Du kan ikke rydde opp i et rom før du innrømmer at det er rotete. Når vi ser på hvordan dataene blir samlet inn og brukt, må vi være ærlige om hvilke skjevheter som kan finnes.
  2. Bruk mangfoldige datasett: Hvis dataene som AI-en trener på er mangfoldige og representerer hele samfunnet, er sjansen større for at modellen blir rettferdig. Det er som å lage en fest der alle er invitert, ikke bare de som ser ut som de kunne vært på forsiden av et moteblad.
  3. Test og revider regelmessig: Det er ikke nok å trene AI én gang og håpe på det beste. Algoritmer må jevnlig testes og revideres for å fange opp eventuelle nye skjevheter som kan dukke opp. Det er som å få sjekket bilen din for sikkerhet – du vil ikke at det skal være feil når du er ute og kjører.

Så, neste gang du bruker AI, enten du er på jobb, på legekontoret eller i banken, husk at disse systemene kan ha sine egne skjevheter – akkurat som oss. Men med riktig oppfølging og etikk på plass, kan vi kanskje skape en AI som er litt mer rettferdig, og litt mindre "menneskelig" i sine vurderinger.

Og det er faktisk mulig å bygge en fremtid der maskiner ikke bare er smarte – men også rettferdige!