– Mitt beste tips er å se utenfor LLM-er
Ukas koder Seran Shanmugathas mener at mye av KI-praten nå handler om agenter og kodegenerering, men påpeker at det også finnes andre interessante spor.
Hva jobber du med?
Jeg jobber i FSN Capital Partners, et nordisk private equity-selskap (PE), hvor jeg med på å bygge FSN Labs.
Der utvikler jeg interne produkter for bedre beslutningsstøtte i investeringsarbeidet og hjelper porteføljeselskapene våre med å bruke AI og teknologi mer effektivt i hverdagen.
Hvor mye KI bruker du i jobben din?
Kort sagt: mye. PE-bransjen har tradisjonelt vært bygget på erfaring, relasjoner og regneark. Det vi bygger er systemer som gjør kunnskap mer tilgjengelig og beslutninger mer datadrevne – i praksis en kombinasjon av søk, embedding-basert retrieval, klassisk maskinlæring og statistiske metoder.
På investeringssiden handler det om å strukturere informasjon slik at den gir bedre grunnlag for vurderingene vi gjør. Ute i porteføljeselskapene handler det om å ta store mengder informasjon og gjøre den brukbar – oppslag i dokumenter, kryssalgsmuligheter, beslutningsstøtte. Felles for begge er at verdien ikke sitter i modellen, men i systemet rundt: datakvalitet, evalueringssløyfer og tillit over tid.
På kodeagentsiden har jeg droppet IDE-en helt. Jeg SSH-er inn på desktopen fra MacBook-en og kjører cmux – en terminal bygget på Ghostty med en scriptbar nettleser og socket API der agentene selv kan styre browser, opprette workspaces og sparke i gang nye agenter som skriver Golang for meg.
Oppå det kjører Oh-My-OpenAgent, som er provider-agnostisk der orkestratoren ikke velger modell men kategori – og mapper automatisk til riktig modell per oppgave – pluss LSP og AST-Grep på tvers av agenter.
Hva synes du er mest krevende ved å være utvikler? 👀
Jeg sitter midt mellom to verdener som snakker helt forskjellige språk. Kollegaene mine på investeringssiden tenker i multipler, EBITDA og exits. Jeg tenker i goroutines, bayesiansk inferens og systemdesign.
Verdien av det jeg bygge er svært liten hvis ingen forstår hva det gjør eller stoler på det. Mye av jobben min handler derfor om oversettelse: å ta noe teknisk komplekst og gjøre det til noe folk kan bruke i et investerings- eller strategimøte.
Hva er det neste du har lyst til å lære deg eller bli bedre på?
Jeg er spesielt interessert i å gå dypere inn i reinforcement learning, fordi det skiller seg fra rene prediksjonsmodeller ved å være rettet mot sekvensielle beslutninger over tid.
Det gjør det relevant i en PE-kontekst, hvor verdiskaping ofte handler om å prioritere riktige tiltak i riktig rekkefølge under usikkerhet. Jeg synes særlig anvendelser innen investeringsvurderinger, operasjonell oppfølging og ressursallokering i porteføljen er spennende.
Hva ser du på som bransjens største utfordring akkurat nå? 🔭
Jeg tror den største utfordringen i skjæringspunktet mellom teknologi og private equity er å unngå at teknologi blir værende på PowerPoint-nivå i stedet for å skape reell verdi i porteføljen.
Det er lett å snakke om AI, automatisering og datadrevne prosesser, men langt vanskeligere å få det inn i faktiske arbeidsflyter i selskaper med ulike systemer, ulik datakvalitet og ulik digital modenhet. Det er i dette gapet mellom teknologiambisjon og operasjonell gjennomføring at verdien enten realiseres eller forsvinner.
Hva er ditt beste tips til andre utviklere?
Mitt beste tips er å se utenfor LLM-er. Mye av AI-praten handler nå om agenter og kodegenerering, men det finnes også andre interessante spor.
For meg er foundationmodeller for tidsserier et godt eksempel på det, med modeller som TimesFM og Chronos-2. Det er et fint spor hvis man vil bruke AI til forecasting og til å forstå signaler og mønstre i data – ikke bare tekstgenerering.