– De strukturelle problemene med dagens kunstige intelligens

– Default-scenarioet er det hvor vi taper, men med kloke valg og samarbeid kan vi minimere eller unngå flere av dem, skriver Magnus Elden. 

Magnus Elden retter blikket mot utfordringene KI gir oss som mennesker og samfunn.
Publisert

✍ leserinnlegg

Dette er et leserinnlegg fra en ekstern skribent, som betyr at innholdet ikke nødvendigvis speiler kode24s meninger. Vil du også bidra? Send oss en epost på [email protected], eller les mer her!

KI er overalt nå. Det skal spare millioner, løse alt og gjøre hverdagen enklere. 

Ja, teknologien er imponerende, men bak all hypen finnes det noen alvorlige problemer som vi snakker alt for lite om. 

Noen av disse er iboende problemer ved selve teknologien. Andre er kostnader som samfunnet ikke er kapabel til å betale.

Denne kronikken er min tolkning av hvor vi er på vei, basert på eksisterende forskning og data. 

For en mer grundig og kildebelagt gjennomgang av de samme problemene kan du lese min mye tørrere og lengre artikkel her.

Teknologien spiser seg selv

Internett har alltid vært fylt med menneskelig innhold i alle formater. Det er dette KI-modellene er trent på, og det er derfor de klarer å imitere menneskelig språk og kreativitet så godt. 

Nå skjer det derimot noe nytt: KI genererer mer og mer av innholdet som finnes på nett, og det innholdet ender uunngåelig opp i treningsdataene til neste generasjon modeller. 

Modellene trenes altså på sitt eget avkom. Forskning viser at kvaliteten forringes for hver runde med dette, og at outputen snevres inn mot et statistisk gjennomsnitt. 

Figuren "Model Collapse" viser til en degenerativ læringsprosess der modeller over tid begynner å glemme usannsynlige hendelser, mens modellen blir forgiftet med sin egen projeksjon av virkeligheten.

Det typiske, det forutsigbare, det kjedelige. Menneskelig kreativitet er verdifull nettopp fordi den bryter grenser og utvider horisonten. Dagens KI peker alltid mot midten. 

Desto mer KI-innhold som finnes i treningsdataene, desto mer ensartet blir neste modell. Det menneskelige mangfoldet som ga KI verdi til å begynne med, eroderes sakte bort, og KI vil derfor stagnere.

Dette er et fiktivt scenario. I virkeligheten trener ikke Anthropic Claude-modeller på brukerdata i utgangspunktet.

Når KI skader noen

Et relatert problem handler om kontroll, eller rettere sagt mangelen på den. 

Moderne KI er i praksis en svart boks. Selv om flere jobber med dette kan vi hovedsakelig bare se hva den produserer, men ikke fullt ut hvorfor. 

Det betyr at vi ikke kan verifisere om en modell gjør det rette fordi den forstår hva som er riktig, eller om den bare gir oss svar vi liker å høre for å nå et annet mål. 

En tilstrekkelig avansert KI kunne i teorien konkludere at det beste utfallet for dens oppgave er katastrofalt for menneskeheten. 

Det finnes ingen kjent, sikker metode for å forhindre dette og vi vet ikke engang hvor langt unna en eventuell katastrofe vi er. Selv om vi ikke ender opp med Skynet så har vi ikke et system i dag som takler ansvarsfordelingen når KI skader noen eller noe. 

Arbeidsledighet

Så har vi et arbeidsmarked i endring. KI fortrenger først og fremst de jobbene som fungerer som inngangsporten til en karriere: juniorstillinger, assistentroller, enklere analyseoppgaver. 

Det er nettopp gjennom disse jobbene folk bygger erfaring og kvalifiserer seg til mer avanserte posisjoner med mer ansvar. Vi ender opp med færre og færre mennesker som kan fylle de ekspertstillingene KI ennå ikke er god nok til å håndtere, ettersom eksisterende seniorer går av med pensjonen. 

Vi risikerer å ende opp i en verden der de aller fleste ikke kan tjene til livets opphold, og hva gjør vi da? 

På 30-tallet var det under 30 prosent som var arbeidsledig, og folk led veldig. KI kan lede til langt flere som er arbeidsledig. 

Den enormt økte makten og rikdommen som KI skaper havner by default hos en svært liten gruppe, og gir dem mer og mer innflytelse over oss, politikken, og samfunnet generelt.

– Bak all hypen finnes det noen alvorlige problemer som vi snakker alt for lite om, mener skribenten.

Hva det koster oss

Det er lett å tenke på KI som et verktøy som alle andre. Noe vi bruker og legger fra oss. Derimot fungerer hjernen som en muskel: den blir sterkere av bruk og svakere av hvile. 

En person som lar KI tenke for seg, øver seg mindre på å resonnere. På kort sikt ser vi en økt kapasitet, men vi akkumulerer mental gjeld som på lang sikt fører til en mindre. 

Vi har sett det før: GPS undergravde navigasjonssansen hos folk som brukte det. Det er godt dokumentert. 

KI tilbyr å gjøre det samme med tenkning, skriving og problemløsning på tvers av hele samfunnet. Når den industrielle revolusjonen erstattet menneskemuskler med maskiner forlot vi fysisk arbeid og vi flyktet inn i det mentale. Denne gangen har vi ikke noe å flykte til.

Autoritære problemer

Noe av det mest underdiskuterte problemet er hva KI gjør med vår felles virkelighetsforståelse. 

Syntetisk tekst, lyd, bilder og video er allerede tilnærmet umulig å skille fra ekte uten spesialiserte verktøy. Hvem som helst kan i dag prompte troverdige bevis for noe som aldri hendte. 

En sentralisert autoritet som sertifiserer hva som er sant er én mulig løsning, men det byr på åpenbare autoritære problemer. En mangel på en sentralisert autoritet er ikke noe alternativ heller siden vi ender opp med et informasjonslandskap der folk ikke kan stole på noe som helst. 

Demokrati avhenger av at vi som samfunn kan enes om et felles faktagrunnlag. Uten det er det bare flokkmentalitet igjen.

Store kostnader

Det er heller ikke gratis å drive disse systemene. 

Trening og kjøring av store KI-modeller krever enorme mengder strøm og vann. Datasentre bygges raskere enn ren energi kan forsyne dem, og fossilt brensel fyller gapet. Ferskvannreserver tappes. Sjeldne mineraler forbrukes, og e-avfall med giftstoffer som bly og kvikksølv hoper seg opp. 

Kostnadene bæres ikke av selskapene som bygger KI, men skyves videre til lokalsamfunn, miljø og fremtidige generasjoner. 

Landene og selskapene som er med i KI-kappløpet har ikke råd til å bremse så lenge konkurrentene ikke gjør det, så miljøet ofrer på alteret til rask fremdrift. Klassisk race to the bottom med en klype tragedy of the commons.

NREL (the National Renewable Energy Laboratory) har laget dette kartet som viser datasentre og overføringslinjer.

Hva nå?

Disse problemene er ikke uavhengige, men virker forsterkende på hverandre. Mental atrofi gjør folk mer sårbare for desinformasjon. 

Tapet av juniorjobber betyr at vi bygger opp færre av de menneskene som trengs for å lage lover og rammeverk som holder teknologien ansvarlig. Kappløpet mot bunnen øker risikoen for ukontrollerte systemer. Hvert problem nærer det neste.

Dette betyr ikke at man ikke kan eller bør bruke KI, men man må tenke seg godt på hvorfor og hvordan man bruker teknologien. 

Default scenarioet er det hvor vi taper, men med kloke valg og samarbeid kan vi minimere eller unngå flere av dem. 

Dessverre er mekanismene allerede i gang, og vinduet for å gjøre noe blir smalere for hver dag vi behandler hastighet som det eneste som teller. 

KI kan bli en av de mest fordelaktige teknologiene menneskeheten har skapt, men det krever at vi tar feilmodiene på alvor.

Referanser i leserinnlegget

Powered by Labrador CMS