Ber norske utviklere få på plass etisk regelverk for kunstig intelligens

- Skulle hatt et bindende profesjonelt etisk ansvar, på lik linje med at helsepersonell, mener Inga Strümke.

USA startet allerede på 1990-tallet med å teste optimalisering av helsekøer ved hjelp av kunstig intelligens, påpeker Inga Strümke.📸: Mona Hauglid
USA startet allerede på 1990-tallet med å teste optimalisering av helsekøer ved hjelp av kunstig intelligens, påpeker Inga Strümke.📸: Mona Hauglid Vis mer

- Det er ikke kun det personlige ansvaret AI-utviklere har. Jeg mener de skulle hatt et bindende profesjonelt etisk ansvar, på lik linje med at helsepersonell har en helsepersonell-lov å forholde seg til, sier Inga Strümke, AI-forsker ved NTNU og medlem av Norsk råd for digital etikk (NORDE), til kode24.

Kunstig intelligens er en teknologi som kan løse en rekke problemer vi står overfor. For eksempel å finne sammenhenger mellom genetikk og sykdom. Samtidig har teknologien også sine mørkere sider.

Det har nylig blitt tematisert i den ferske norske serien "Ammo", som blant annet omhandler kunstig intelligens i våpenindustrien.

kode24 tok kontakt med Strümke for å høre om utviklere har et ansvar i møte med kunstig intelligens.

Ikke godt nok med personlig moral

Ifølge Strümke påvirkes verdenssamfunnet av AI allerede. Hun viser for eksempel til at USA allerede på 1990-tallet startet å teste optimalisering av helsekøer ved hjelp av kunstig intelligens.

- Det at klart at vi i dag tar beslutninger og utvikler maskinlærings-modeller som kan påvirke oss, sier hun.

Årsaken til at Strümke mener det er nødvendig med en egen fagetikk for AI-utviklere, er at det ikke holder med den enkelte utviklers personlige moral - selv om alle er enige om hva som er godt og ondt.

Hun sammenlikner det med miljøkampen:

- De fleste føler at de må gjøre noe for å fikse klimakrisen. Likevel klarer vi ikke å ta de riktige valgene. Dette skyldes blant annet at problemstillingen er for kompleks, og at det medfører en personlig ulempe å ta de rette valgene.

Bør omhandle mange fagområder

- Men hvorfor er det ikke arbeidsgiveren som bør ta det moralske ansvaret?

- Det du gjør da er at du utnevner arbeidsgiveren til bæreren av de moralske problemene. Og dette er en arbeidsgiver som er i en markedskonkurranse med andre aktører. Det vil være å flytte problemet og gjøre det vanskeligere, sier Strümke.

Strümke mener at en etikk for AI-utviklere bør gjelde alle områder der mennesker berøres direkte eller indirekte. For eksempel automatisk innvilgning av lån.

Er fan av EU-lov

Selv er Strümke tilhenger av EUs forslag til en ny AI-lov som ifølge henne har målet om å harmonisere regelverket for kunstig intelligens i alle sektorer.

- Men i Norge er det særlig viktig at vi blir enige om tydelige kjøreregler i offentlig sektor.

- Er norske utviklere bevisste nok på utfordringene knyttet til kunstig intelligens?

- Det er vanskelig å si, men særlig generaliserbarhet og robusthet vil jeg gå sterkt ut ifra at alle AI-utviklere er bevisste på, sier Strümke.