LLM is de volgende JPEG
Laat me een verhaal vertellen.
In de jaren 1990, als je een foto naar iemand wilde sturen, moest je over veel dingen nadenken: bestandsformaat, compressie-algoritme, kleurdiepte. Elke software had zijn eigen formaat. Toen kwam JPEG.
Plotseling gaf niemand meer om afbeeldingsformaten. JPEG werd de infrastructuur. Je zegt niet "Ik heb een afbeelding gemaakt met JPEG", je zegt alleen "Ik heb een afbeelding gestuurd".
LLM bewandelt dezelfde weg.
Wanneer technologie lucht wordt
"LLM's zijn een commodity. Apple koopt graag tokens van LLM-bedrijven, maar Apple is een bedrijf dat gedifferentieerde producten verkoopt." — @deuteronormative
Deze zin is recht voor zijn raap. Als je Apple bent, wek je zelf geen elektriciteit op, je koopt elektriciteit van het elektriciteitsnet. Je maakt zelf geen banden, je koopt banden van Michelin. Nu train je ook geen LLM's zelf, je koopt tokens uit de cloud.
Dit wil niet zeggen dat LLM's niet belangrijk zijn. Elektriciteit is belangrijk. Banden zijn belangrijk. Maar ze zijn infrastructuur, geen differentiërende factor.
De winnaar van de kostenoorlog
Alibaba's zojuist uitgebrachte Qwen 3.5:
- 397 miljard parameters, 17 miljard activering
- 60% goedkoper dan Qwen 3
- 8 keer sneller
- Tokenprijs is 1/18 van Gemini 3 Pro
Dit is geen technologische doorbraak, dit is een prijzenoorlog. Zo daalden de prijzen van LCD-tv's ook. Het eerste bedrijf dat onder de 1000 dollar dook, was niet de beste in technologie, maar het was de winnaar.
Pragmatisch advies
Wat betekent dit als je een ontwikkelaar bent?
-
Train zelf geen modellen. Tenzij je OpenAI, Anthropic of Alibaba bent, is het trainen van modellen geldverspilling. Gebruik API's.
-
Focus op prijs in plaats van parameters. 397 miljard parameters klinkt cool, maar je gebruikers geven er niet om. Ze geven om reactiesnelheid en kosten.
-
Wees voorbereid op migratie. LLM's zijn een commodity, wat betekent dat ze vervangbaar zijn. Vandaag GPT, morgen Claude, overmorgen Qwen. Je architectuur moet deze switch ondersteunen.
Interessante paradox
De mensen die het meeste van LLM's weten, praten er juist niet veel over.
"Andrej Karpathy schreef een mini-GPT in 240 regels pure Python. Geen TensorFlow. Geen PyTorch. Alleen wiskunde. Het laat zien dat LLM's geen magie zijn - het zijn gewoon de volgende tokenvoorspellingen."
Wanneer je begrijpt dat "de volgende tokenvoorspelling" alles is wat deze technologie is, verdwijnt veel hype. Dit is geen denigratie. Een magnetron verwarmt ook alleen watermoleculen, maar het heeft de keuken veranderd.
Volgende stap
LLM's zullen iets worden als JPEG: alomtegenwoordig, niemand praat erover, maar onmisbaar.
Tot die tijd zullen slimme mensen de goedkoopste leverancier kiezen in de prijzenoorlog. Want als technologie een commodity wordt, is het enige dat telt de kostprijs.





