LLM er den næste JPEG
Lad mig fortælle en historie.
I 1990'erne, hvis du ville sende et billede til nogen, skulle du overveje mange ting: filformat, komprimeringsalgoritme, farvedybde. Hver software havde sit eget format. Så kom JPEG.
Pludselig var der ingen, der bekymrede sig om billedformater mere. JPEG blev infrastruktur. Du ville ikke sige "Jeg lavede et billede med JPEG", du ville bare sige "Jeg sendte et billede".
LLM er på vej samme vej.
Når teknologi bliver luft
"LLM'er er en vare. Apple vil med glæde købe tokens fra LLM-virksomheder, men Apple er en virksomhed, der sælger differentierede produkter." — @deuteronormative
Det er sagt ligeud. Hvis du er Apple, vil du ikke generere din egen elektricitet, du køber strøm fra elnettet. Du vil ikke lave dine egne dæk, du køber dæk fra Michelin. Nu vil du heller ikke træne din egen LLM, du køber tokens fra skyen.
Det er ikke for at sige, at LLM'er ikke er vigtige. Elektricitet er vigtigt. Dæk er vigtige. Men de er infrastruktur, ikke differentierende faktorer.
Vinderen af omkostningskrigen
Alibabas nyligt udgivne Qwen 3.5:
- 397 milliarder parametre, 17 milliarder aktiverede
- 60 % billigere end Qwen 3
- 8 gange hurtigere
- Token-pris er 1/18 af Gemini 3 Pro
Det er ikke et teknologisk gennembrud, det er en priskrig. Sådan faldt priserne på LCD-tv også engang. Den første virksomhed, der brød $1000-mærket, var ikke den teknologisk bedste, men den var vinderen.
Pragmatiske råd
Hvad betyder det, hvis du er udvikler?
-
Lad være med at træne modeller selv. Medmindre du er OpenAI, Anthropic eller Alibaba, er træning af modeller at brænde penge af. Brug API'er.
-
Fokuser på pris frem for parametre. 397 milliarder parametre lyder cool, men dine brugere er ligeglade. De bekymrer sig om responshastighed og omkostninger.
-
Vær forberedt på at migrere. LLM'er er en vare, hvilket betyder, at de kan udskiftes. I dag bruger du GPT, i morgen Claude, i overmorgen Qwen. Din arkitektur bør understøtte dette skift.
Et interessant paradoks
De, der ved mest om LLM'er, taler faktisk ikke så meget om LLM'er.
"Andrej Karpathy skrev en mini-GPT med 240 linjer ren Python. Ingen TensorFlow. Ingen PyTorch. Kun matematik. Det viser, at LLM'er ikke er magi – de er bare den næste token-forudsigelse."
Når du forstår, at "næste token-forudsigelse" er alt, hvad denne teknologi er, forsvinder meget af hypen. Det er ikke for at nedgøre det. En mikrobølgeovn opvarmer bare vandmolekyler, men den har ændret køkkenet.
Næste skridt
LLM'er vil blive noget som JPEG: allestedsnærværende, ingen taler om det, men uundværligt.
Indtil da vil smarte mennesker vælge den billigste leverandør i priskrigen. For når teknologien er blevet en vare, er det eneste, der betyder noget, omkostningerne.





