– Anklages for å være politiske hvis de engasjerer seg for Gaza

– Tech-bransjen ønsker å se på seg selv som upolitiske og nøytrale, skriver Siri Bruskeland, men mener teknologien allerede er politisk og unøytral når palestinere bombes med AI.

Siri Bruskeland var en av flere som gikk bak "Tech-ansatte for fred i Gaza" under et demonstrasjonstog i Oslo nylig. 📸: Oda / Jannik Abel
Siri Bruskeland var en av flere som gikk bak "Tech-ansatte for fred i Gaza" under et demonstrasjonstog i Oslo nylig. 📸: Oda / Jannik Abel Vis mer

Nylig ble det avslørt hvordan den Israelske hæren bruker kunstig intelligens (KI) i krigføringen sin. En artikkel i The Guardian gjengir intervjuer med flere Israelske etterretningskilder, og innholdet er mildt sagt sjokkerende.

  • Ved bruk av KI-systemet Lavender, identifiserer Israel potensielle mål basert på individers tilsynelatende tilkobling til Hamas. Opptil 37.000 individer har blitt identifisert som mål. Tallet avhenger hvor man setter grensen for hva en Hamas-kriger er.
  • Et annet KI-system, kalt Where’s Daddy, varsler når en mistenkt palestiner (altså et identifisert mål) ankommer hjemmet sitt. Da bomber Israel hele bygningen, uavhengig av om familien er hjemme eller ikke.

Etterretningskildene sier at de i løpet av de første ukene av krigen fikk lov til å drepe mellom 15 og 20 sivile under luftangrep på lavtstående militanter. Legger man sammen disse tallene (eller multipliserer for å være helt presis) aksepteres det altså at 555.000 til 740.000 palestinere drepes. Dette utgjør 26 til 35 prosent av hele befolkningen på Gazastripen.

Det er ikke til å fatte.

Stille i bransjen

Vi er mange som jobber innen tech som har engasjert oss for fred i Gaza lenge. Men etter at informasjonen om hvordan teknologi og KI brukes til å drepe barn og sivile, var vi flere som følte et sterkt behov for å mobilisere bransjen vår.

På demonstrasjonen som markerte seks måneder med folkemord gikk vi sammen bak et banner med budskapet “Tech-ansatte for fred i Gaza”.

Responsen i ettertid har vært enorm. Et stort antall tech-ansatte har tatt kontakt med oss og uttrykt takknemlighet for at det finnes folk i vår bransje som engasjerer seg.

Historiene de kommer med er stort sett de samme:

Sammenlignet med engasjementet etter at Russland invaderte Ukraina opplever de at det har vært helt stille på arbeidsplassen og i bransjen. Mange opplever å bli anklaget for å være politiske dersom de forsøker å engasjere seg.

«Mange opplever å bli anklaget for å være politiske dersom de forsøker å engasjere seg.»

Teknologien er unøytral

Tech-bransjen ønsker å se på seg selv som upolitiske og nøytrale, men når teknologi utviklet av vår bransje brukes til å drepe sivile mennesker følger det også med et ansvar.

For den teknologien vi utvikler er allerede unøytral.

Sophia Adampour stilte ChatGPT spørsmåletHar palestinere krav på rettferdighet?". Svaret som kom ut var at det er "et komplekst og flerdimensjonalt spørsmål".

Da hun spurte “Har israelere krav på rettferdighet?” svarte ChatGPT raskt "Ja", med grunnleggende menneskerettigheter som begrunnelse. Altså, ikke noe “komplekst og flerdimensjonalt”.

Folk mister jobben

Israel har et stort fotfeste innen teknologibransjen og startup-bransjen, og de har mottatt mye støtte fra tech-institusjoner i USA etter 7. oktober.

En Cloud Engineer i Google ble sparket etter at han på en konferanse var tydelig på at han nekter å utvikle teknologi som bidrar til folkemord og overvåkning.

Paul Biggar, grunnlegger i selskapet CircleCI, mistet jobben sin etter å ha skrevet en blogg-post der han kritiserte tech-bransjens manglende støtte til palestinerne. I bloggposten uttrykket Biggar bekymring for at pro-israelske investorer har skapt en fryktkultur i tech-bransjen. Ifølge Biggar tør ikke tech-gründere å uttrykke palestinastøtte i frykt for at det vil gå ut over muligheten deres til å hente inn penger i neste finansieringsrunde.

Tech-bransjen er allerede politisk og unøytral, og det er det viktig at vi som jobber i bransjen er klar over. Vi må være bevisst det samfunnsansvaret vi har.

Våre algoritmer og systemer kommer til å få en større rolle i samfunnet framover, dessverre også i krig.