Ny satsing skal beskytte open source-utviklere mot KI-generert “slop”
Bak satsingen står flere av de største teknologiselskapene, inkludert Google, Microsoft, OpenAI, Amazon Web Services, GitHub og Anthropic.
Linux Foundation lanserer et nytt initiativ for å hjelpe vedlikeholdere av open source-prosjekter med å håndtere en økende strøm av KI-genererte feilrapporter, skriver The Register.
Bak satsingen står flere av de største teknologiselskapene, inkludert Google, Microsoft, OpenAI, Amazon Web Services, GitHub og Anthropic. Til sammen har de bidratt med 12,5 millioner dollar til prosjektet.
– En eksplosjon i sikkerhetsfunn
Ifølge Linux Foundation har utviklingen innen KI ført til en kraftig økning i antall rapporterte sårbarheter i open source-programvare.
– Fremskritt innen KI øker dramatisk hastigheten og omfanget av sårbarhetsoppdagelse i open source, heter det i kunngjøringen.
Samtidig mangler mange vedlikeholdere både ressurser og verktøy til å håndtere mengden rapporter.
– Vedlikeholdere står nå overfor en enestående tilstrømning av sikkerhetsfunn, hvor mange er generert av automatiserte systemer, uten at de har kapasitet til å triagere og rette dem effektivt.
Skal hjelpe overbelastede vedlikeholdere
Initiativet skal drives av Open Source Security Foundation sammen med Linux Foundations eget Alpha-Omega-prosjekt.
Målet er å utvikle løsninger som gjør det enklere å håndtere sikkerhetsarbeid i open source-prosjekter, og samtidig styrke robustheten i økosystemet.
Organisasjonene skal blant annet:
-
jobbe direkte med vedlikeholdere
-
tilpasse løsninger til eksisterende arbeidsflyt
-
gjøre nye sikkerhetsverktøy mer praktiske og tilgjengelige
– Penger alene løser ikke problemet
Greg Kroah-Hartman fra Linux-kjerneprosjektet peker på at utfordringen ikke forsvinner av seg selv:
– Finansiering alene vil ikke løse problemet KI-verktøy skaper for sikkerhetsteam i open source i dag, sier han.
Samtidig understreker han at OpenSSF har ressursene som trengs for å hjelpe prosjekter med å håndtere den økende mengden KI-genererte rapporter.
Et voksende problem
Problemet med KI-generert “støy” er ikke nytt. Allerede i 2024 advarte Python Software Foundation om utfordringen.
Senere har også vedlikeholdere av populære prosjekter som cURL opplevd så stor pågang av lavkvalitetsrapporter at de har måttet endre hvordan de jobber.
Selv GitHub har vurdert tiltak mot det de beskriver som en strøm av KI-genererte bidrag til open source-prosjekter.
Lite detaljer foreløpig
Det er foreløpig uklart nøyaktig hvilke konkrete løsninger initiativet vil resultere i, eller når de vil bli tilgjengelige.
Men bakgrunnen er tydelig: KI gjør det enklere enn noen gang å finne – og rapportere – mulige feil. Nå forsøker bransjen å finne ut hvordan man skal håndtere konsekvensene.