OpenAI legger ned verktøy for å avsløre AI-tekst: – Unøyaktig!

Tekst skrevet av kunstig intelligens er vanskelig å skille fra tekst skrevet av mennesker, viser det seg.

OpenAI legger ned verktøyet de lagde for å avsløre AI-generert tekst. 📸: Jonathan Kemper / Unsplash
OpenAI legger ned verktøyet de lagde for å avsløre AI-generert tekst. 📸: Jonathan Kemper / Unsplash Vis mer

Store språkmodeller som ChatGPT fra OpenAI har gjort det mulig å bruke kunstig intelligens (AI) til å skrive overbevisende tekster, og det er vanskelig å avgjøre om de er skrevet av en maskin eller et menneske.

Enkelte forskere mener at det faktisk er umulig å vite med sikkerhet om en tekst er skrevet av en AI eller et menneske.

Nå ser det ut til at OpenAI, som står bak ChatGPT, har kommet til samme konklusjon:

OpenAI legger ned verktøyet de lagde for å analysere tekster for å avsløre om teksten er skrevet av en AI eller ikke, skriver The Register.

Har ikke gitt opp

I en oppdatering skriver selskapet:

– Fra 20. juli 2023 er "AI classifier" ikke lenger tilgjengelig på grunn av den lave nøyaktigheten.

OpenAI skriver at de nå går gjennom tilbakemeldinger og for øyeblikket prøver å finne mer effektive teknikker for å analysere tekst.

I tillegg skriver selskapet at de vil utvikle og rulle ut mekanismer som gjør brukere i stand til å forstå om lyd eller visuelt innhold er AI-skapt.

Økende problem

Selv om ChatGPT og lignende løsninger har mange positive sider, har mange utdanningsinstitusjoner advart om at de i økende grad blir brukt til blant annet å jukse på eksamensbesvarelser.

I fjor ble for eksempel 11 studenter ved NTNU mistenkt for å jukse, hvorav fem av dem for bruk av kunstig intelligens.

Det er også langt fra sikkert at alle tilfeller blir avslørt: Forskere ved Universitetet i Agder har undersøkt hvor godt ChatGPT kan svare på eksamensspørsmål, og kun 60 prosent av tekstene ble avslørt som robottekster.