LLM ist das nächste JPEG
Lasst mich eine Geschichte erzählen.
In den 1990er Jahren musste man viel bedenken, wenn man ein Foto an jemanden schicken wollte: Dateiformat, Komprimierungsalgorithmus, Farbtiefe. Jede Software hatte ihr eigenes Format. Dann kam JPEG.
Plötzlich kümmerte sich niemand mehr um Bildformate. JPEG wurde zur Infrastruktur. Man sagte nicht: "Ich habe ein Bild mit JPEG erstellt", sondern nur: "Ich habe ein Bild geschickt".
LLM geht den gleichen Weg.
Wenn Technologie zu Luft wird
"LLM ist eine Ware. Apple kauft gerne Tokens von LLM-Unternehmen, aber Apple ist ein Unternehmen, das differenzierte Produkte verkauft." — @deuteronormative
Diese Aussage ist sehr direkt. Wenn man Apple ist, erzeugt man keinen eigenen Strom, sondern kauft ihn aus dem Stromnetz. Man stellt keine eigenen Reifen her, sondern kauft sie von Michelin. Jetzt wird man auch keine eigenen LLMs trainieren, sondern Tokens aus der Cloud kaufen.
Das soll nicht heißen, dass LLM unwichtig ist. Strom ist wichtig. Reifen sind wichtig. Aber sie sind Infrastruktur, kein Unterscheidungsmerkmal.
Der Gewinner des Kostenkriegs
Das gerade von Alibaba veröffentlichte Qwen 3.5:
- 397 Milliarden Parameter, 17 Milliarden aktiviert
- 60 % günstiger als Qwen 3
- 8x schneller
- Token-Preis ist 1/18 von Gemini 3 Pro
Das ist kein technologischer Durchbruch, das ist ein Preiskampf. So sind auch LCD-Fernseher im Preis gefallen. Das erste Unternehmen, das die 1000-Dollar-Marke unterschritten hat, war nicht das technologisch beste, aber es war der Gewinner.
Pragmatische Ratschläge
Was bedeutet das für Entwickler?
-
Trainiert keine eigenen Modelle. Sofern ihr nicht OpenAI, Anthropic oder Alibaba seid, ist das Trainieren von Modellen Geldverschwendung. Nutzt APIs.
-
Konzentriert euch auf den Preis, nicht auf die Parameter. 397 Milliarden Parameter klingen cool, aber eure Nutzer interessiert das nicht. Sie kümmern sich um Reaktionsgeschwindigkeit und Kosten.
-
Seid bereit zur Migration. LLM ist eine Ware, was bedeutet, dass sie austauschbar ist. Heute GPT, morgen Claude, übermorgen Qwen. Eure Architektur sollte diesen Wechsel unterstützen.
Ein interessantes Paradoxon
Diejenigen, die sich am besten mit LLM auskennen, reden am wenigsten darüber.
"Andrej Karpathy hat einen Mini-GPT mit 240 Zeilen reinem Python geschrieben. Kein TensorFlow. Kein PyTorch. Nur Mathematik. Es zeigt, dass LLM keine Magie ist – sie sind nur die nächste Token-Vorhersage."
Wenn man verstanden hat, dass die "nächste Token-Vorhersage" alles ist, was diese Technologie ausmacht, verschwindet viel Hype. Das ist keine Abwertung. Eine Mikrowelle erhitzt auch nur Wassermoleküle, aber sie hat die Küche verändert.
Nächste Schritte
LLM wird zu etwas wie JPEG werden: allgegenwärtig, niemand redet darüber, aber unverzichtbar.
Bis dahin werden kluge Leute im Preiskampf den billigsten Anbieter wählen. Denn wenn Technologie zur Ware wird, sind nur noch die Kosten wichtig.





