Nå sperrer de brukere ute i 30 dager for bruk av AI

Stack Overflow strammer inn reglene for svar generert av ChatGPT.

Stack Overflow strammer inn regler for bruk av svar fra ChatGPT. 📸: Jørgen Jacobsen
Stack Overflow strammer inn regler for bruk av svar fra ChatGPT. 📸: Jørgen Jacobsen Vis mer

I en vri som gjør moderatorene til rene Blade Runners har Stack Overflow vedtatt at det skal gies makt til å umiddelbart utestenge brukere i 30 dager.

Om det viser seg at kodeforslaget kommer fra den kunstig intelligens-baserte tjenesten ChatGPT.

Fra de ansatte

For ikke lenge siden skrev vi at utviklerforumet Stack Overflow valgte å forby kodeforslag fra ChatGPT. Nå har de tatt det ett skritt lenger i et ferskt innlegg på hjelpesidene deres, signert "The Stack Overflow staff".

Innlegget avslutter med en klar beskjed om at Stackoverflow velger å gi moderatorene deres mulighet til å utestenge brukere i opptil 30 dager, hvis de blir tatt i å kopiere inn svar fra ChatGPT.

Peker på tillit

Innlegget begynner med setningen: "Stack Overflow er et community som er bygget på tillit". Et ord som går igjen gjennom hele teksten.

Videre skriver de at det er essensielt at brukerne kan stole på at svarene som blir gitt av deres brukere reflekterer hva en ekte bruker anser som riktig.

Og samtidig at andre brukere har evnen til å verifisere og validere svaret.

"Akkurat nå møter ikke svar generert av ChatGPT disse standardene, dermed bidrar de ikke til et tillitsbasert miljø".

Sliter med å oppdage feil

Det er altså valideringen av ChatGPT som er problemet for Stack Overflow, ikke nødvendigvis bruken av ChatGPT i seg selv.

I innlegget sier de at GPT er såpass god til å overbevise brukerne deres om at et svar er riktig, at moderatorene sliter med å oppdage feil i ChatGPT-baserte svar.

"Resultatet av dette er at objektive feil sniker seg inn på siden vår. Slik det er nå risikerer GPT å bryte lesernes tillit om at siden vår tilbyr svar skrevet av eksperter".

Delte meninger på Reddit

I en tråd på Reddit er gir utviklere støtte til konklusjonen fra Stackoverflow.

"Jeg har spurt den flere tekniske ting, og det er skremmende hvor selvsikkert den svarer feil i mange tilfeller", skriver iamwiredsound.

"Her om dagen prøvde jeg å finne ut hvorfor en Dockerfil jeg skrev ikke ble bygget. Derfor spurte jeg ChatGPT om å skrive en Dockerfil ut i fra mine krav. Den spyttet ut en nesten identisk Dockerfil, som også feilet byggesteget! Robotoene tar kanskje jobben min, men de er i hvert fall like inkompetente som meg", skriver bruker conchobarus.

"Dette skjer med minst en pull request hver uke fra kollegaen min som bruker Github Copilot", skriver Affectionate_Car3414.