Mener etikkregler for utviklere er feil vei å gå: - Må inn i utdanningen

- Hvis det ikke ligger noe grunnlag og bevissthet bak, har det ingen verdi, mener NITO.

Det er viktig at når det tas beslutninger om mennesker, så må mennesker være med i beslutningen, mener Bjørn Tore Sund. 📸: Privat
Det er viktig at når det tas beslutninger om mennesker, så må mennesker være med i beslutningen, mener Bjørn Tore Sund. 📸: Privat Vis mer

- Vi kan alle stille oss opp og avlegge en ed eller formulering. Men hvis det ikke ligger noe grunnlag og bevissthet bak, har det ingen verdi, sier Bjørn Tore Sund, medlem av NITOs etikkkomite og IKT-ekspertutvalg, til kode24.

Utviklere bør få et bindende profesjonelt etisk ansvar, sa Inga Strümke til kode24 forrige uke.

NITOs etikkomite er enige med Inga Strümke i at AI utviklere bør ha et tydelig profesjonelt ansvar, men mener en etisk ed eller profesjonsregulerende lovverk er feil vei å gå, og feil sted å starte.

Etikk må inn i skolen

Sund trekker fram at det ligger en grunnleggende etikkundervisning bak "legeløftet" Den hippokratiske ed og Advokateden.

- Hvordan du tar gode etiske avgjørelser eller håndterer etiske dilemmaer går igjen i hele utdanningsløpet for leger og advokater. Vi må sørge for at programmerings-utdanningen også får et løp hvor du tidlig trener på å håndtere etiske dilemmaer, sier han.

Sund legger til at det også må gis undervisning i konkrete situasjoner hvor dilemmaene inntreffer.

- Når du programmerer kunstig intelligens kommer dilemmaene på løpende bånd, sier han.

«Vi må søre for at programmerings-utdanningen får et løp hvor du tidlig trener på å håndtere etiske dilemmaer»

Mennesker i beslutningene

Hovedproblemstillingen slår inn når du begynner å ta automatiske beslutninger om mennesker, mener Sund.

- Vi ser at kunstig intelligens kommer i stor fart inn i HR, for eksempel ved ansettelser. Du har også sosial kreditt-systemet som kineserne fremmer. Da er NITO opptatt av at vi som utvikler dette gir tydelige advarsler, sier han.

Sund forteller at man før gjerne snakket om at beslutningene til kunstig intelligens måtte etterprøves.

- I dag vet vi at det ikke går an, ettersom at beslutningsprosessene er så kompliserte. Da må vi ha noe annet i bunn for å kunne stole på den. Det er for eksempel viktig at når det tas beslutninger om mennesker, så må mennesker være med i beslutningen, sier han.

Vil ha møteplasser i næringslivet

NITOs etikkkomite mener også at det er nødvendig med møteplasser i arbeidslivet hvor ingeniører og teknologer kan diskutere etiske dilemma de håndterer i hverdagen.

- Veldig ofte når du jobber med dette i en bedrift, er det intern privat informasjon, og du kan ikke legge ut om etiske vurderinger internt i bedriften. Men problemet er at de som utvikler teknologien ikke er med i vurderingsprosessen, sier Sund.

Han sier at det er likegyldig hvilke møteplasser som blir skapt, enten det er på Teams eller under den ukentlige standupen.

- Det er bra så lenge møteplassen er der, og terskelen for å finne andre er lav, sier Sund.

«Det er også nødvendig med møteplasser i arbeidslivet hvor ingeniører og teknologer kan diskutere etiske dilemma de møter og håndterer i hverdagen»

Bør bli en del av norsk lov

EUs AI-regulativ ønsker å regulere bedrifters ansvar rundt kunstig intelligens. Det siste estimatet er at loven skal behandles i Europaparlamentet høsten 2023.

NITO mener at regulativet bør gjøres til norsk lov, men at samfunnet også trenger at utviklere bevisstgjøres på problemstillingene og hvordan de kan adresseres. Fagorganisasjonen mener dette er en forutsetning for at utviklere skal ta det profesjonelle ansvaret.

Sund forteller at det for øyeblikket foregår mange ulike ting rundt ansvarlig AI, også i Norge. Blant annet la den forrige regjeringen fram en strategi for AI.

- Den har jeg ikke sett noe mer til på ganske lenge. Datatilsynet har jo også sandkassen sin som hjelper bedrifter. Men det er ingen lov som sier at bedriftene må gå gjennom sandkassen. Per dags dato er det bare personregelverket som gjelder for AI, sier Sund.