Facebook-eier Meta har lansert Code Llama, en stor språkmodell (LLM) laget spesielt for å genere eller debugge kode, skriver selskapet i en bloggpost.
Code Llama er bygget på toppen av språkmodellen Llama 2, og er i likhet med Llama 2 gratis å bruke både for forskning, personlig eller kommersiell bruk.
Skal gjøre koding enklere
Ifølge Meta kan Code Llama gjøre arbeidsflyten raskere og mer effektiv for utviklere, og også senke terskelen for utviklere som prøver å lære seg å kode.
– Code Llama har potensiale til å bli brukt som et produktivitets- og opplæringsverktøy for å hjelpe utviklere med å skrive mer robust og veldokumentert programvare, skriver selskapet i lanseringsbloggposten.
Meta skriver at Code Llama er en variant av Llama 2 som de har trent spesielt på kode-relaterte datasett.
Dette er noe av det Code Llama kan gjøre, ifølge Meta:
- Generere kode fra naturlig språk
- Forklare kode
- Fullføre kode
- Debugge kode
Metas nye, åpne språkmodell er gratis for kommersiell bruk
Støtter mange språk
Code Llama støtter mange av de mest populære programmeringsspråkene, som Python, C++, Java, PHP, TypeScript, JavaScript, C# og Bash.
Meta lanserer språkmodellen i tre ulike størrelser, med henholdsvis 7, 13 og 34 milliarder parametre. Hver av modellene er trent opp med 500 milliarder "tokens" med kode og koderelaterte data.
Variantene med 7 og 13 milliarder tokens er også trent opp med det Meta kaller "fill-in-the-middle (FIM), som gjør modellene i stand til å sette inn kode i eksisterende kode. Det gjør at de uten videre kan brukes til kodefullføring.
«Siden Python og PyTorch spiller en viktig rolle i AI-miljøet, tror vi en spesialisert modell gir ekstra verdi.»
Det er også laget to finjusterte modeller. Den ene skal være spesielt god på Python, mens den andre – Code Llama - Instruct – skal være spesielt god på å både forstå naturlig språk og gi instruksjoner tilbake i naturlig språk.
Python-varianten er finjustert på 100 milliarder tokens med Python-kode.
– Siden Python og PyTorch spiller en viktig rolle i AI-miljøet, tror vi en spesialisert modell gir ekstra verdi, skriver Meta.
Slik bruker du den
I motsetning til for eksempel Copilot er ikke Code Llama et ferdig tillegg du kan installere i kodeeditoren.
Det Meta har lagt opp til nå, er at de som vil kan laste ned modellene til sin egen maskin og kjøre dem lokalt eller lage noe med dem.
Det første du må gjøre er å be om tilgang til modellen ved å fylle ut et skjema. For undertegnede tok det bare noen minutter å få tilgang. Deretter må du besøke git-repoet til Code Llama og klone det, og deretter kjøre et installasjonsskript.
Fullstendige instruksjoner finner du i git-repoet.
NB: Disse modellene tar latterlig mye diskplass, så ikke gjør som meg og velg "Last ned alle"!