LLM er den neste JPEG
La meg fortelle en historie.
På 1990-tallet, hvis du ville sende et bilde til noen, måtte du tenke på mange ting: filformat, komprimeringsalgoritme, fargedybde. Hver programvare hadde sitt eget format. Så kom JPEG.
Plutselig brydde ingen seg lenger om bildeformater. JPEG ble infrastruktur. Du sier ikke «Jeg lagde et bilde med JPEG», du sier bare «Jeg sendte et bilde».
LLM er på vei i samme retning.
Når teknologi blir luft
"LLM er en vare. Apple kjøper gjerne tokens fra LLM-selskaper, men Apple er et selskap som selger differensierte produkter." — @deuteronormative
Dette er sagt rett ut. Hvis du er Apple, genererer du ikke din egen strøm, du kjøper strøm fra strømnettet. Du lager ikke dine egne dekk, du kjøper dekk fra Michelin. Nå vil du heller ikke trene din egen LLM, du kjøper tokens fra skyen.
Dette betyr ikke at LLM ikke er viktig. Strøm er viktig. Dekk er viktig. Men de er infrastruktur, ikke differensierende faktorer.
Vinneren av kostnadskrigen
Alibabas nylig utgitte Qwen 3.5:
- 397 milliarder parametere, 17 milliarder aktiverte
- 60 % billigere enn Qwen 3
- 8 ganger raskere
- Token-pris er 1/18 av Gemini 3 Pro
Dette er ikke et teknologisk gjennombrudd, dette er en priskrig. LCD-TV-er ble også redusert i pris på denne måten. Den første bedriften som falt under 1000 dollar var ikke den teknisk beste, men den var vinneren.
Pragmatiske råd
Hva betyr dette hvis du er en utvikler?
-
Ikke tren din egen modell. Med mindre du er OpenAI, Anthropic eller Alibaba, er det å trene en modell å kaste bort penger. Bruk API.
-
Fokuser på pris i stedet for parametere. 397 milliarder parametere høres kult ut, men brukerne dine bryr seg ikke. De bryr seg om responstid og kostnad.
-
Vær forberedt på å migrere. LLM er en vare, noe som betyr at den kan erstattes. Bruk GPT i dag, Claude i morgen og Qwen i overmorgen. Arkitekturen din bør støtte denne typen bytte.
Et interessant paradoks
De som forstår LLM best, snakker minst om LLM.
"Andrej Karpathy skrev en mini-GPT med 240 linjer ren Python. Ingen TensorFlow. Ingen PyTorch. Bare matematikk. Det viser at LLM ikke er magi – de er bare neste token-prediksjon."
Når du forstår at «neste token-prediksjon» er alt denne teknologien handler om, forsvinner mye av hypen. Dette er ikke for å nedvurdere. En mikrobølgeovn varmer bare opp vannmolekyler, men den endret kjøkkenet.
Neste steg
LLM vil bli noe som JPEG: allestedsnærværende, ingen diskuterer det, men uunnværlig.
Inntil da vil smarte mennesker velge den billigste leverandøren i priskrigen. For når teknologien er standardisert, er det eneste som betyr noe kostnad.





