Avis skrev at nordmann var sikta for overgrep, fordi AI tok feil
Rana No sjekka ikke om AI-en hadde rett, melder Medier24. Det burde de ha gjort, viser også kode24s test.
«Mann fra Rana siktet for voldtekt, grov vold og overgrep mot barn - fortsatt i varetekt» skrev lokalavisa Rana No sist helg, melder Medier24.
Det var bare ett problem: Dette stemte ikke.
Artikkelen var basert på en fengslingskjennelse, som journalisten hadde fått hjelp av AI til å tolke.
Men AI-en tok feil.
AI-svar ble ikke sjekka
I fengslingskjennelsen ble det lista opp diverse paragrafer i straffeloven for å beskrive lovbruddene hans.
Og det er her det gikk i krøll, trolig på grunn av AI.
– Vi som i mange andre redaksjoner, har begynt å ta i bruk KI. I denne saken har jeg blitt informert om at det har blitt brukt KI, og at faktaopplysningene i dette tilfellet ikke har blitt gjennomgått, slik det skal, sier konstituert sjefredaktør i Rana No, Karina Solheim, til Medier24.
Paragrafene mannen er sikta for, handler om blant annet vold, trusler, skadeverk og tyverier – ikke voldtekt og overgrep mot barn, slik artikkelen hevda.
Artikkelen er avpublisert, skriver Medier24, og avisa skal ta en «grundig gjennomgang» av rutinene rundt AI-bruk med redaksjonen.
ChatGPT på ville veier
Så; hvor god hjelp kan du forvente, om bruker AI til å tolke lovparagrafer?
Ikke særlig god, viser det seg. kode24 vet ikke hvilken AI Rana No brukte til artikkelen sin, men vi tok en kjapp test med den mest brukte – ChatGPT:
- Vi starter med den første paragrafen artikkelen handla om, § 155, som ChatGPT svarer riktig på. Det samme med neste, § 321.
- Men allerede på tredje paragraf, § 342, begynner ChatGPT å surre.
- Paragrafen handler om «Brukstyveri av motorvogn», mens ChatGPT mener den handler om «Brudd på besøks-, oppholds- eller innreiseforbud».
- Når vi forteller ChatGPT at den tar feil, svarer den blant annet «Du har helt rett 👍 Jeg blandet inn feil paragraf i stad.»