Utviklingen av språkmodeller kan nå et tak: - Blir matet med de samme dataene

- Feil i dataene blir forsterket om igjen og om igjen, sier AI-professor Morten Goodwin.

Morten Goodwin mener at vi må finne på nye "triks", som menneskelig feedback i treningen av modellene, for at problemet ikke skal hindre utviklingen av nye modeller.📸: Universitetet i Agder
Morten Goodwin mener at vi må finne på nye "triks", som menneskelig feedback i treningen av modellene, for at problemet ikke skal hindre utviklingen av nye modeller.📸: Universitetet i Agder Vis mer

Hva skjer når du mater språkmodeller med AI-generert innhold? Jo, "outputen" blir rett og slett mye dårligere, skriver Futurism.

Nettavisen viser til en artikkel skrevet av forskere ved Rice og Standford University. De har funnet ut at dersom du trener generative AI-modeller, som ChatGPT, på AI-generert innhold ødelegges "modellens digitale hjerne".

Ettersom internett i økende grad flommes over av AI-generert innhold, kan dette skape utfordringer for utviklingen av fremtidige språkmodeller, mener Morten Goodwin, professor ved Universitetet i Agder.

Blir vanskeligere å trene AI

Goodwin forteller at hovedutfordringen er at de store språkmodellene krever mye data for å bli riktig trent opp.

- Modeller, som ChatGPT, har i praksis saumfart hele Internett for å få nok data til å trene seg. Når Internett blir stadig mer populert med data som kommer fra de store språkmodellene, blir den samme dataene som er output fra en modell input til den neste. Det blir som å koke suppe på de samme dataene, igjen og igjen, sier han til kode24.

Han legger til at det ikke kommer noe mer god trening av dette. Ifølge Goodwin har dette to hovedkonsekvenser:

- For det første, kan det bety at de blir vanskeligere å trene neste generasjon av språkmodellene - siden de er avhengig av høykvalitetsdata. For det andre, er blir det slik at feil i dataene, for eksempel fordommer, blir forsterket om igjen og om igjen.

«Det var ikke bokdata på Internett alene for å trene ChatGPT - menneskelig feedback var nødvendig.»

Nødvendig med mennesker

Goodwin legger til at styrken til de seneste språkmodellene, som ChatGPT ikke er store datamengder alene, men også forsterkningslæring med menneskelig feedback

- Det betyr at de har i løpet av treningen har bedt mennesker av kjøtt og blod å vurdere svarene til GPT og trent de deretter.

Ifølge ham er dette mye av grunnen til at modellen fungerer så godt som den gjør.

- Altså, det var ikke bokdata på Internett alene for å trene ChatGPT - menneskelig feedback var nødvendig. Jeg er helt overbevist om at neste generasjoner av språkmodellene også vil gjøre lignende "triks" og unngå å alene belage seg alene på store menger data. Da blir forsøpling av Internett et mindre problem.

Problemet er enda større for kode

Goodwin sier at problemet er enda større for kode enn for naturlig språk.

- For naturlige språk er det vi mennesker som er de beste dommerne. For kode er det både datamaskinen og menneske sammen den beste dommeren - kode må typisk både kjøre effektivt på en datamaskin, samtidig som den skal være lesbar av mennesker, sier han.

Ifølge Goodwin betyr dette at "triks" som menneskelig feedback blir mye vanskeligere.

- Det er også vanskelige å skille mellom kode skrevet av maskiner og kode skrevet av mennesker, spesielt med tanke på at veldig mye kode i dag skrives i samarbeid mellom maskiner å mennesker. For eksempel: Hvordan kan jeg vite om kode som ligger i repo på GitHub er produsert av en maskin eller menneske?

«Hvis det er en feil i koden, kan språkmodellene lære seg denne feilen, produsere den på nytt, og mate nye modeller med samme feil.»

Matet med de samme dataene

Goodwin sier at det, for alle praktiske formål, ikke er noen måte å skille dette.

- Vi kommet til å få mye kode som er laget av maskiner, som også brukes til å trene opp nye modeller.

- Hvilke konsekvenser kan dette få?

- Hvis det ikke løses er den ene konsekvensen at språkmodellene når et tak. De klarer ikke bli bedre fordi de bare blir matet med de samme dataene, som har vært igjennom en annen språkmodell først.

En annen konsekvens er at feil språkmodellene har lært seg blir forsterket.

- For eksempel hvis det er en feil i koden, kan språkmodellene lære seg denne feilen, produsere den på nytt, og mate nye modeller med samme feil. Vi kan tenke det samme for ineffektiv kode, brukergrensesnitt som fungerer bedre for en del av befolkingen og så videre.

Krever større oppmerksomhet

Goodwin mener at vi må finne på nye "triks", som menneskelig feedback i treningen av modellene, for at problemet ikke skal hindre utviklingen av nye modeller.

- Det mest nærliggende er å tenke at utviklere kontinuerlig gir feedback til de som lager modellen, for eksempel Copilot. Dette gjøres egentlig allerede, men hvordan feedbacken eventuelt blir brukt til trening vites ikke.

Professoren mener at det også kreves en større oppmersomhet fra utviklerne.

- Det kreves også en større oppmerksomhet for utviklere. Når de får generert kode, krever det en større overvåkenhet over hva som fungerer og ikke fungerer, litt som en redaktør for en bok. Utviklere blir ikke lenger "forfattere" men "redaktører", som er en helt ny rolle.