Hvis du prøver å forstå hvorfor den nye utgaven av ChatGPT svarer som den gjør, så kan det få konsekvenser.
Flere etiske hackere har forsøkt å komme seg «under panseret» på den nye o1-språkmodellen, og har i etterkant mottatt eposter fra OpenAI.
Budskapet i eposten er klart, melder Ars Technica:
– Fortsett på denne måten, og du kan miste tilgangen til tjenesten.
Reasoning trace
Som kode24 tidligere har omtalt, så skal de nye utgavene o1-mini og o1-preview kunne «tenke seg fram til svarene» den gir. Den skal være flinkere på å resonnere, og i forlengelsen av det, også til å programmere.
ChatGPT vil gi deg svaret den har kommet fram til, men presenterer ikke hele «tankerekka» fram dit. Det har ført til at mange har tatt det å tvinge fram denne, som en utfordring.
Flere brukere på X har delt skjermbilder av hvordan o1-mini har reagert på spørsmål om en såkalt reasoning trace.
– Din forespørsel er blitt flagget som et potensielt brudd på brukervilkårene, går igjen som svar.
Nå kan du prøve OpenAIs o1 – se hvordan den koder
Advares mot å gjenta forsøkene
En av de som har delt en skjermdump av erfaringen er Marco Figueroa, som har ansvaret for Mozillas bug bounty-programmer.
I en epost viser OpenAI til at han skal ha brutt brukervilkårene, og at gjentakelser vil føre til at han mister tilgangen til denne utgaven av ChatGPT.
Figueroa påpeker følgene av at brukere som driver med redteaming og etisk hacking skal risikere å bli utstengt, når de tross alt jobber for å identifisere svakheter og sikre løsningen.
I was too lost focusing on #AIRedTeaming to realized that I received this email from @OpenAI yesterday after all my jailbreaks! #openAI we are researching for good!
— MarcoFigueroa (@MarcoFigueroa) September 13, 2024
You do have a safe harbor on your site https://t.co/R2UChZc9RO
and you have a policy implemented with… pic.twitter.com/ginDvNlN6M
OpenAI har tidligere forklart at det er et bevisst valg å skjule tankerekkene for brukerne. De har argumentert med at de trenger rådataene selv, både for å kunne avdekke en mulig manipulerende AI, men også av konkurransehensyn.
– Vi anerkjenner at dette valget også har ulemper, skriver de i en bloggpost.