Tar til orde for ansvarlig KI-bruk i bedrifter
– Vi må ikke være redd for å bruke KI, men vi må være bevisste på risikoen med KI, sier Tita Bach i DNV.
– Det er mulig å bruke KI på en ansvarlig måte, sier Tita Bach, sjefsforsker i DNV, til kode24.
Tirsdag kveld forteller hun om sin forskning når Teknas fagnettverk Big Data inviterer til det fulltegnede arrangementet «Kvinner i front for kunstig intelligens og data».
Målet er å markere kvinnedagen og løfte fram kvinner som leder an innen KI og datainnovasjon, og skjer i samarbeid med Women in data science, ifølge Tekna.
– Det er en ære for meg å bli invitert, sier Bach.
Selv har hun ikke teknisk bakgrunn, men forsker på ansvarlig KI, samspill mellom mennesker og KI og cybersikkerhetskultur.
Konsekvenser for ikke-brukere
Bach utdyper:
– Vi må ikke være redd for å bruke KI, men vi må være bevisste på risikoen med KI. Den risikoen kan vi styre. Jeg er opptatt av hvordan vi kan jobbe sammen med KI for å bli bedre, sier forskeren.
Hun oppfordrer til å tenke ansvarlig bruk fra dag én når man skal bygge en ny KI-løsning, ikke spørre seg hvordan man skal gjøre det etterpå. Gjerne gjennom tett kontakt med brukere.
Videre peker Bach på at KI-bruk kan gå utover personer som ikke bruker KI. Et eksempel er når en lege bruker KI til å sette en diagnose for en pasient.
– Pasienten bruker ikke KI, men er mottaker av konsekvensen av å bruke KI, om det gir en fordel eller om det blir feil. Brukere er altså viktige stakeholders, men det er også ikke-brukerne som konsekvensene går utover. Dette er det viktig å tenke over for å praktisere ansvarlig KI-bruk.
Etiske risikovurderinger
Blant tirsdagens talere er også Heidi Dahl, fagleder for ansvarlig KI i Posten Bring.
Hun er opptatt av at å bruke teknologi til å skape verdi ikke bare handler om programmering, men om organisasjonen - strukturen, det mellommenneskelige og hvordan beslutninger blir tatt, det såkalte sosio-tekniske systemet
– Du kan ikke bare se på teknologien, men hvordan den brukes i organisasjonen, sier hun.
Dahl trives best når hun får jobbe hvordan man får til ansvarlig KI-bruk i praksis. Det handler om å ta etiske risikovurderinger.
– Hva er ansvarlig KI?
– At vi bruker KI på en måte som er i tråd med verdiene våre. Det gjelder all IT. KI har noen flere utfordringer enn bare programmering, da det ofte bygger på historiske data som har skjevheter og bias.
– Redd for å si det man mener
Gjennom forskingsprosjektet Enact har Posten Bring tilpasset vanlig metodikk for sikkerhetsrisikovurderinger til etiske diskusjoner rundt bruk av KI.
– Jeg har testet hvordan det kan være verktøy til å bruke KI på en ansvarlig måte. Ved vanlige sikkerhetsrisikovurderinger kjører man risikoanalyser rundt hva som kan gå galt og hvilke verdier man vil beskytte. Vi kan også stille de samme spørsmålene når man skal snakke om etikk.
Hun peker på et konkret eksempel når man bruker transkribering i Copilot under møter på arbeidsplassen.
– Da har vi gode diskusjoner om hva som er ok og ikke, og hva kan gå galt. For eksempel kan man bli redd for å si det man mener i møter, fordi det kan bli delt gjennom transkriberingen. Da kan man forbedre rutiner og retningslinjer, for eksempel at alle skal kunne si nei til å bli transkribert, eller bestemme at sensitive temaer ikke skal transkriberes, sier Dahl.
Tips til kvinner
Dahl understreker at alt fra programmere til forretningsfolk i organisasjonen bør snakke sammen for å sikre ansvarligheten når man lager en KI-løsning.
– Det er ikke alltid enkelt å forutse nedstrøms-konsekvenser av valgene man tar, så man er avhengig av å snakke sammen for å få oversikt over helheten, sier Dahl.
Hun mener det fortsatt er behov for kvinnekonferanser om teknologi.
– Absolutt, det er fortsatt mange dyktige kvinner å løfte fram!
– Hva er ditt tips til kvinner som vil opp og fram?
– Ikke
være redd for å ta ordet, tren på å snakke og vær villig til å gjøre
jobben. Du blir ikke synlig på første forsøk. Det er utrolig
hvor mye du får til om du er villig til å brette opp ermene, sier Dahl.