Norske AI-utviklere advarer: - Det kan gå for langt

- God idé med uavhengig gjennomgang, mener AI-utvikler. Men dommedag skal fortsatt være et stykke unna.

Malte Loller-Andersen sier at AI-systemene utvikles i et forrykende tempo. 📸: Privat
Malte Loller-Andersen sier at AI-systemene utvikles i et forrykende tempo. 📸: Privat Vis mer

"Mer enn 1.100 personer, inkludert Elon Musk, Apple-legenden Steve Wozniak og Tristan Harris fra Center for Humane Technology, har signert et åpent brev som oppfordrer «alle AI-laboratorier til umiddelbart å pause opplæringen av AI-systemer kraftigere enn GPT-4 i minst seks måneder»", skrev skrev kode24 nylig.

Norske AI-utviklere kode24 har snakket med, Ivar Austin Fauske i Accenture og Malte Loller-Andersen i Knowit, er delvis enige med påstanden - og advarer at utviklingen kan gå for fort.

«Utviklere har helt klart et moralsk ansvar.»

God ide med uavhengig gjennomgang

Malte Loller-Andersen, utvikler i Knowit, sier at AI-systemene utvikles i et forrykende tempo.

- Og om det fortsetter i samme tempo kan det bli plutselig gå litt for langt. På den andre siden er det kanskje litt hardt å ta i å stanse all utvikling i seks måneder, sier han til kode24.

Han legger til at det er vanskelig å si om effektene kun vil være positive og risikoene håndterbare på den tiden.

- Jeg synes det er en god ide med uavhengig gjennomgang av AI-systemene, og tror det er veien å gå når man lager såpass smarte AI-systemer som påvirker samfunnet i stor grad.

Utviklere har selv et ansvar

Loller-Andersen viser til at EU har laget retningslinjer for utviklingen av AI-systemer.

- Det har blitt gitt bøter til AI-selskaper som samler data i gråsonen, slikt som ansiktsbilder. Jeg tror det er viktig at det offentlige er med i bildet. Slik at selskaper ikke løper løpsk når det gjelder innsamling av data, utvikling av AI-systemer og ikke minst i bruken av dem.

- Har utviklere selv et moralsk ansvar for å bidra til å utvikle AI som ikke er skadelig?

- Utviklere har helt klart et moralsk ansvar for å bidra til å lage etisk AI. Utfordringen blir at det er individuelt hva hver enkelt anser som skadelig AI. Det blir vanskelig om det skal være opp til hver enkelt utvikler å bestemme hva som blir moralsk riktig og hva som ikke er det. Da tror jeg nok vi ender opp med situasjoner der man prøver å se hvor langt man kan tøye grensene. Derfor er det nok lurt med felles retningslinjer.

«Det største problemet på kort sikt er at det er veldig enkelt å lage "fake news".»

Kommer nærmere generell AI

Ifølge Loller-Andersen vil utviklingen av AI bare fortsette.

- Metodene som er brukt for å lage de nyeste systemene er egentlig relativt gamle, de har bare blitt gjort iterativt bedre de siste ti årene og utført i en større skala enn før. Helt frem til de siste par årene har jeg tenkt at man må finne nye metoder for å nå generell AI, men det er jeg ikke så sikker på lenger.

Han legger til at man de neste par årene nok må gjøre iterative forbedringer.

- Men vi kommer nærmere og nærmere generell AI. Å tro at vi når det i 2024 er nok veldig optimistisk, men det skjer mye på feltet om dagen. Det største problemet på kort sikt er at det er veldig enkelt å lage "fake news". La oss håpe vi ikke blir spammet ned av det.

Reelle utfordringer med AI

Ivar Austin Fauske, utvikler i Accenture, er enig i de etiske dilemmaene som forskerne i brevet tar opp.

- Det er reelle utfordringer som vi må ta stilling til. Når det er sagt, så tror jeg ikke vi er der ennå. Teknologiene det varsles rundt har enda mange svakheter som en velinformert person kan peke ut. Det spenner seg fra enkle fakta til hull i resoneringer, sier han.

Fauske mener det er viktig å huske at GPT og lignende teknologier er lingvistiske eksperter og ikke orakler.

- Utfordringen ligger dog i at de er flinke til å presentere svar som plausible. Kanskje ikke så ulikt politikere? sier han.

Kan brukes på en skadelig måte

Generelt mener Fauske at AI er et verktøy som kan brukes til å løse mange problemer og utfordringer i verden.

- Men som med alle verktøy, kan det også brukes på en skadelig måte. Det er derfor viktig å ha reguleringer og etiske retningslinjer på plass for å sikre at AI brukes på en ansvarlig måte.

Fauske mener også at utviklere har et moralsk ansvar for å utvikle AI som ikke er skadelig.

- Hva som er og ikke er skadelig kan være vanskelig å bedømme. Det er også viktig å huske at utviklere ikke alltid har full kontroll over hvordan AI brukes eller implementeres. Det er derfor viktig at alle som bruker AI, inkludert bedrifter og regjeringer, tar ansvar for å bruke det på en ansvarlig måte.

Fortsatt litt før AI blir skummel

Fauske mener at myndigheter og samfunnsdebattanter bør sette AI på agendaen, slik at man er bedre forberedt på det som kommer.

- Dog tror jeg at vi fortsatt har et stykke å gå før AI-en blir for skummel. Jeg tror også at vi utviklere først og fremst fortsatt er mest interessert i hva som er mulig og tar resten deretter.

Ifølge Fauske vil AI fortsette å utvikle seg raskt og bli brukt til å løse mange problemer og utfordringer fremover.

- Jeg vil sitere en tweet jeg ikke husker kilden på "AI will not take your job. A person who uses AI will". Som med alle teknologiske skifter opp igjennom så faller en del jobber bort mens nye blir til. Mange skumle scenarioer, som deepfakes, tror jeg også kan løses med AI, for å avsløre dem. SciFi-scenarioet der AI tar over tror jeg fortsatt er et stykke unna, sier han.