NITO advarer medlemmer mot å bruke KI som advokat

NITO-medlemmer liker ikke når advokatene er uenig med ChatGPT. – Medfører at vi bruker mer tid enn det som er nødvendig.

Farah Ali, leder for juridisk seksjon i NITO, sliter med medlemmer som stoler for mye på KI.
Publisert

– Vi opplever at medlemmer utfordrer våre advokaters råd med funn de har gjort på ChatGPT for eksempel, sier Farah Ali, leder for juridisk seksjon i NITO, i en pressemelding.

Organisasjonen, som organiserer mange utviklere, opplever altså at medlemmene deres spør kunstig intelligens om arbeidslivsspørsmål, i tillegg til å spørre faktiske advokater hos NITO. 

Og at medlemmene deretter blir misfornøyde om ikke advokatene er enige med KI-en.

– Dette medfører at vi bruker mer tid enn det som er nødvendig, sier Ali.

Juss eller gjettelek

Så er det store spørsmålet; hvem har rett? 

Den tilfeldige KI-tjenesten et medlem har spurt, eller advokaten hos NITO?

– NITOs advokater baserer sin rådgivning på norsk lovgivning og relevante rettskilder, mens en KI som ChatGPT, enkelt forklart, bruker statistikk til å forutsi det neste ordet i en setning, sier Raymond Kristiansen, prosjektleder i Kompetansesenteret i NITO.

Med andre ord setter Kristiansen, ikke overraskende, penga på sine egne advokater.

Ber deg sjekke kilder

Om du likevel skal bruke KI til juridiske spørsmål, råder NITO deg til å i det minste be den om å oppgi kildene sine. 

Og så sjekke om kilden er relevant norsk juss, eller en tilfeldig X-melding, som NITO bruker som eksempel.

– Ellers risikerer du å ende opp som rådgiveren i Tromsø Kommune som ikke sjekket kildene i en KI-generert rapport om skolenedleggelser. De viste seg å være falske, minner Kristiansen deg på.

Powered by Labrador CMS