Advarer mot å få ammehjelp fra ChatGPT: «På bærtur!»

Norske mødre får og deler ammetips fra AI-tjenester. – Men mye av det er helt på bærtur, advarer Ammehjelpen.

Norske mødre bruker ChatGPT og AI for å få råd rundt amming og barsel. Camilla Krogli Hansen i Ammehjelpen advarer mot å tro på alt de forteller deg. 📸: NTB / Ammehjelpen
Norske mødre bruker ChatGPT og AI for å få råd rundt amming og barsel. Camilla Krogli Hansen i Ammehjelpen advarer mot å tro på alt de forteller deg. 📸: NTB / Ammehjelpen Vis mer

Et nyfødt barn innebærer mye googling – rundt amming, søvn og barneskrik. Og søkingen fører ofte nybakte foreldre til den frivillige organisasjonen Ammehjelpen.

Men i 2025 overtar AI-prat stadig mer av søkingen, enten gjennom tjenester som ChatGPT eller fra AI-generte svar på Google.

Nå går Ammehjelpen ut og advarer nordmenn mot å la kunstig intelligens fortelle dem hvordan du skal ta vare på barna sine.

«Det ser troverdig ut, det er systematisk satt opp, det er skrevet i en vennlig tone - og mye av det er riktig. Men mye av det er også helt på bærtur» skriver Ammehjelpen på Facebook.

– Dette er selvfølgelig å sette det på spissen, men det er viktig å få fram poenget, som er at ChatGPT kan hallusinere, sier Camilla Krogli Hansen, sykepleier og redaktør for Ammehjelpen.no, til kode24.

– Hvis man spør om et tema man ikke har så mye kunnskap om, kan man aldri vite hva som er sant og ikke av det man får til svar.

Deler AI-skapte svar

Problemet er todelt:

  • Norske foreldre ber AI-tjenester om hjelp, men disse språkmodellene kan som kjent servere informasjon som i beste fall er utdatert eller i verste fall trukket ut av løse lufta.
  • Norske foreldre hjelper hverandre med AI-generert tekst, som får det samme problemet som over, men med en menneskelig avsender.

– Jeg har lagt merke til en økende trend, der spørsmål besvares ved hjelp av copy/paste fra ChatGPT eller lignende tjenester, og også sett tilfeller av at det faglige grunnlaget for innhold i poster er laget ved hjelp av ChatGPT. Noen opplyser om at det er fra ChatGPT, andre ikke, forteller Krogli Hansen.

– AI-genererte svar som legges ut kan for eksempel få kommentarer fra trådstarter ala «Tusen takk for et utrolig fyldig og nyttig svar. Dette skal jeg prøve».

Bekymra for Googles AI

I begge tilfeller er problemet altså at norske foreldre stoler for mye på kunstig intelligens, i stedet for å selv oppsøke faglige kilder og helsehjelp.

For selv om mange AI-tjenester advarer brukerne mot at ikke alt kan tas for god fisk, mener Krogli Hansen at måten for eksempel ChatGPT presenterer svarene sine på gir dem ufortjent mye troverdighet.

At også Google nå gir deg AI-genererte svar, over resultater fra sider som blant annet Ammehjelpen, bekymrer. I dette tilfellet er nettopp Ammehjelpen én av kildene, men det som står her om å "tømme" brystet skal ikke stemme helt overens med oppdatert informasjon fra Helsedirektoratet. 📸: Ole Petter Baugerød Stokke
At også Google nå gir deg AI-genererte svar, over resultater fra sider som blant annet Ammehjelpen, bekymrer. I dette tilfellet er nettopp Ammehjelpen én av kildene, men det som står her om å "tømme" brystet skal ikke stemme helt overens med oppdatert informasjon fra Helsedirektoratet. 📸: Ole Petter Baugerød Stokke Vis mer

At også Google nå har starta med sine AI-svar i Norge gjør ikke saken noe bedre.

– Jeg er også bekymra for AI-svarene til Google, som ligger øverst i resultatlista. Det er riktignok lenket til kilder, men man skal ha god kunnskap om et tema for å kunne bedømme om kildene som trekkes fram er troverdige eller ikke, sier Krogli Hansen i Ammehjelpen.

Gir feil råd

At språkmodeller kan halisunere er én ting. Men Krogli Hansen mener problemet når det kommer til babyhjelp er helt reelt.

– Jeg har testa det selv, sier hun, blant annet for å høre hva ChatGPT hadde å si om brystbetennelse, som er en vanlig plage blant ammende.

– Mye av det er helt riktig og oppdatert, men tjenesten inkluderer også setninger om «hyppig amming og grundig tømming» – som er motsatt av gjeldende råd.

  • Hun kom også over en post på sosiale medier, skrevet av noen som utga seg for å være helsepersonell, med en lang kildeliste som bevis for en påstand. Hansen mistenkte AI, og da hun sjekka kildene, fant hun ut at de «enten var fiktive, eller sa noe annet enn det som ble hevda».
  • Hansen har også blitt kontakta av mødre som har selvdiagnostisert seg gjennom ChatGPT. AI-tjenesten mente plagene skyldtes amming, og at Ammehjelpen måtte dele informasjonen i kanalene deres.

– Problemet var bare at tilstanden hun beskrev kunne ha svært mange andre årsaker enn amming. Men dette kom ikke tydelig frem i svaret fra ChatGPT, sier Krogli Hansen.

AmmehjelpenGPT?

«Ammehjelpen kunne lage en GPT, som bruker Ammehjelpen.no som kilde og gjøre den tilgjengelig for publikum» skriver en kvinne under Facebook-advarselen til Ammehjelpen, og fortsetter: «Jeg kunne tenke meg at det ville hjelpe mødrene som allerede bruker ChatGPT mye, uansett».

– Er dette noe dere har vurdert?

– Vi vet at dette er en mulighet, og vi er ikke fremmed for tanken. Samtidig er det mange potensielle fallgruver vi ikke har oversikt over. Ammehjelpen er dessuten en bitteliten frivillig organisasjon med små ressurser, både økonomisk og menneskelig, så det er flere årsaker til at dette ikke noe vi prioriterer å se nærmere på akkurat nå, svarer Krogli Hansen.

– Vi satser heller på vår viktigste ressurs: Ammehjelperne, som bidrar til å tilpasse svar fra nettsiden vår til den som ber om hjelp fra oss, ut fra problemstillingen og situasjonen.