Noelle (28) fant falsk porno av seg selv: - Hvem som helst kan bli rammet

– Teknologien vil utvikle seg og til slutt bli så enkel å bruke at det er snakk om å trykke på en knapp.

Australske Noelle Martin fant deepkfake-porno av seg selv en dag hun brukte Google til å google et bilde av seg selv.📸: AP Photo/Andres Kudacki
Australske Noelle Martin fant deepkfake-porno av seg selv en dag hun brukte Google til å google et bilde av seg selv.📸: AP Photo/Andres Kudacki Vis mer

28 år gamle Noelle Martin sjekket bilder av seg selv på Google og fant at noen hadde stjålet ansiktet og kroppen hennes. Ufrivillig ble hun en pornoaktør.

Bildene og filmene hun fant av seg selv, er ti år gamle. Australske Noelle Martin sier hun ikke aner hvem som har laget de falske bildene og filmene der hun tilsynelatende har seksuell omgang med menn.

Hun mistenker at noen rett og slett har hentet bilder fra profilen hennes i sosiale medier og gjort bruk av dem i en pornografisk kontekst.

Fikk høre at hennes påkledning var problemet

Over flere år kontaktet hun en rekke nettsider for å få fjernet det seksualiserte materialet. Noen svarte ikke engang. Andre tok ned bildene før de etter kort tid ble lastet opp igjen.

– Du kan ikke vinne. Dette materialet vil alltid være der ute. Det ødelegger deg for alltid, sier Noelle Martin til nyhetsbyrået AP.

Jo mer kraftfullt hun sa fra, desto mer eskalerte problemet. Noelle fikk også høre at problemet var måten hun kledde seg på og la ut bilder i sosiale medier. Disse stemmene ga henne skylden for de falske bildene, ikke de som hadde konstruert bildene av henne.

«Virkeligheten er at teknologien vil utvikle seg og til slutt bli så enkel å bruke at det er snakk om å trykke på en knapp.»

Vanskelig å avsløre som falske

Noelle Martin har utdannet seg til advokat og har jobbet for å fremme et lovforslag som gir høye bøter til selskaper som ikke etterfølger krav om sletting. Hun tror det må en global løsning til for å få bukt med problemet deepfakes.

Fenomenet Noelle Martin er utsatt for, heter deepfake pornografi, og strekker seg langt ut over nettpornoens grenser. Deepfake benytter seg av kunstig intelligens for å produsere video, lyd og bilder som er vanskelig å avsløre som falske. Begrepet deepfake kommer ifølge NUPI fra den underliggende teknologien «deep learning» som er en form for kunstig intelligens.

Porno laget med deepfake-teknologi spredte seg på nettet da en Reddit-bruker for noen år siden delte klipp der kjente kvinneansikter ble plassert på kroppene til pornoskuespillere. Det er i all hovedsak kvinner som blir manipulert inn i porno.

Influensere og skuespillere utsatt

Lignende videoer med influensere, journalister og andre kjente ansikter florerer på en rekke nettsteder. Noen tilbyr åpent kundene å gjøre hvem de vil om til seksuelle fantasier uten samtykke, eller å bruke teknologien til å skade omdømmet til tidligere partnere.

Ekspertene er bekymret over hvor lett det har blitt å lage sofistikerte og visuelt overbevisende deepfakes. De frykter at denne utviklingen vil forverres med utviklingen av kunstige intelligenser som er trent på millioner av bilder.

– Virkeligheten er at teknologien vil utvikle seg og til slutt bli så enkel å bruke at det er snakk om å trykke på en knapp, sier Adam Dodge til AP.

Han er grunnleggeren av Endtab, som gir råd og støtter folk som har opplevd misbruk.

«Internett er bare enda et sted som selger sex og utnytter sårbare personer.»

Zelenskyj gir opp i falsk video

Deepfakes går også langt utenfor pornoens rå verden. Det er ingen teknologisk bragd å produsere en falsk video der for eksempel president Joe Biden spotter og håner prestestyret i Iran. Selv om videoen sikkert ville blitt avslørt som falsk, ville budskapet spredt seg bredt, mener NUPI i en skoleartikkel om deepfakes.

I fjor ble en kunstig laget video av Ukrainas president Volodymyr Zelenskyj lagt ut i sosiale medier.

I det falske opptaket ber presidenten ukrainerne om å legge ned våpnene. Presidenten sier også at han er bestemt på å overgi den ukrainske byen Donbas til russerne.

Tiltok lemper på kravene

Det mest berømte KI-selskapet Open AI opplyser at de har fjernet eksplisitt innhold for å hindre brukerne i å lage syntetisk pornografisk innhold. Selskapet hevder å ha filtre som blokkerer brukere fra å lage KI-bilder av kjendiser og kjente politikere.

Tiktok kunngjorde nylig at deepfakes og manipulert innhold må merkes på en måte som forteller at innholdet er forandret og manipulert. Selskapet sier også et det ikke er lov å publisere deepfakes av enkeltpersoner. Den nye praksisen er en liberalisering av reglene som gjaldt fram til mars. Da ble slikt innhold blokkert.

Spillplattformen Twitch har også nylig endret sin politikk overfor deepfake-bilder. Det skjedde etter at den populære influenseren Atrioc hadde en deepfake pornoside åpen i nettleseren under en direktestrømming i januar. Pornosiden viste kunstige filmer av Twich-strømmere. Selskapet slo hardt ned på visningen og gjør det klart at bevisst promotering, produksjon eller deling av deepfake er grunnlag for å bli kastet ut av Twich umiddelbart.

«Enhver talentløs hacker kan stjele passord og identitet»

Fjernet app fra Apple og Google

Andre selskaper har også forsøkt å forby deepfake-materiale fra sine plattformer. Apple og Google sier de har fjernet en app fra sine tilbud, som brukte eksplisitte seksuelt antydende videoer av kvinnelige skuespillere til å markedsføre appen.

En undersøkelse fra KI-bedriften Deep Trace Labs viste at det nesten utelukkende er kvinner som er målskive for deepfake. De mest utsatte var vestlige kvinnelige skuespillere og sørkoreanske K-pop-sangerinner.

Falske pornografiske bilder har florert i flere tiår. Men bruken av deepfake-videoer brukes nå til å fornedre kvinner og hindre dem i å beskytte seg selv på nettet, uttalte den amerikanske filmstjernen Scarlett Johansson i et intervju med Washington Post i 2018.

– Internett er bare enda et sted som selger sex og utnytter sårbare personer. Enhver talentløs hacker kan stjele passord og identitet. Da er det bare et spørsmål om tid før hvem som helst kan bli rammet, sier Scarlett Johansson i intervjuet.