Raser mot Google: «Løgnmaskinene presses ned i halsen vår»
– Tydelig eksempel på det som er farlig med KI, sier Eivind Trædal i MDG om at Googles KI-oversikt kom med grove påstander om toppolitikere.
Onsdag skrev kode24 om at Googles KI-oversikt fant opp kriminelt rulleblad til tre norske toppolitikere.
Det skjedde etter et at en Reddit-bruker gjorde et Google-søk på «stortingspolitiker i fengsel».
– Det er ikke hyggelig å bli framstilt som kriminell på nettet, uttalte Heidi Greni, som er på jobbjakt etter at hun mistet stortingsplassen for Senterpartiet i høst.
Politiker Eivind Trædal reagerer kraftig på at dette kan skje.
– Sjuk påstand
Verst gikk det ut over tidligere SV-topp Heikki Holmås. Han ble anklaget for å ha kjøpt seksuelle tjenester av mindreårige, noe han selv omtaler som «grovt og kjipt».
– Det er en sjuk påstand, sier Eivind Trædal, samfunnsdebattant, stortingsvara for Miljøpartiet De Grønne og bystyrerepresentant i Oslo.
Han mener saken er et «tydelig eksempel på det som er farlig med KI» når språkmodeller blir brukt som verktøy for å samle inn kunnskap.
– Det er ikke frivillig å bruke KI lenger. Google har prakka det på oss gjennom sin egen søkemotor. Da er det ekstremt skadelig når slike løgner kan dukke opp med en overbevisende tone, sier Trædal til kode24.
– Dette må reguleres
Riktignok rettet Google opp i sin egen fadese etter et par timer, fordi en Reddit-bruker postet et innlegg om problemet.
– Det er ikke en god løsning, det holder ikke, raser MDG-politikeren.
På Bluesky skriver han:
«Disse løgnmaskinene presses ned i halsen vår, uten at noen tar ansvar for all feilinformasjonen som spres på overbevisende måter. Dette må reguleres».
– Hva mener du bør gjøres?
– Teknologien er åpenbart nyttig og bra. Jeg bruker KI selv. Men vi må holde teknologiselskapene ansvarlige. Det må gå an å melde fra om riv ruskende gal informasjon til Google. De må stå ansvarlig dersom de konsekvent sprer feilinformasjon, sier Trædal.
Med KI-tjenester er hele samfunnet en prøvekanin.
Krever at selskapene tar ansvar
Han frykter at grov hallusinering er et uløselig problem med konseptet språkmodell, og at man fortsetter med å bare rydde opp i etterkant av at feil er oppstått.
– Ansvaret må ligge hos plattformer og selskaper som tilbyr KI-tjenester. Vanlige forbrukere tar det for god fisk, og det er ekstremt farlig. De færreste klikker og klikker og klikker på lenker for å sjekke om teksten stemmer, sier politikeren.
Han mener det er «sykt» at en teknologi er «masseinnført over alt», uten noen form for kvalitetssikring.
Videre trekker han paraleller til hvordan elsparkesyklene plutselig dukket opp i norske byer, med påfølgende reguleringer i stor stil i etterkant.
– Det fører til store kostnader og ulemper, påpeker han.
– Med KI-tjenester er hele samfunnet en prøvekanin, og vi har vent oss til at det er slik det er. Det er ikke en god måte å holde på.
«Uunngåelig»
Kode24 har bedt Google om å kommentere Trædals Bluesky-kommentar.
Sondre Ronander, kommunikasjonssjef i Google Norge og Suomi, svarer ikke direkte på denne, men kommer med en generell uttalelse i saken:
– KI-oversikter forbedres stadig for å vise nyttig informasjon, og vi jobber hardt for å sikre kvaliteten på svarene.
– Når det oppstår problemer, for eksempel hvis modellene våre feiltolker innhold på nettet eller mangler kontekst, bruker vi disse eksemplene til å forbedre systemene våre, og vi kan iverksette tiltak i henhold til retningslinjene våre.
Google opplyser videre at «nøyaktigheten for KI-oversikter er på nivå med andre veletablerte søkefunksjoner, som featured snippets», men at det «med tanke på omfanget av internett, og med milliarder av søk hver eneste dag, er det uunngåelig at det forekommer enkelte avvik. Dette gjelder for alle søkefunksjoner.»