LLM to następny JPEG
Pozwólcie, że opowiem historię.
W latach 90., jeśli chciałeś wysłać komuś zdjęcie, musiałeś wziąć pod uwagę wiele rzeczy: format pliku, algorytm kompresji, głębię kolorów. Każde oprogramowanie miało swój własny format. Potem pojawił się JPEG.
Nagle nikt nie przejmował się już formatem obrazu. JPEG stał się infrastrukturą. Nie mówiłeś „Zrobiłem zdjęcie w JPEG”, mówiłeś tylko „Wysłałem zdjęcie”.
LLM podąża tą samą drogą.
Kiedy technologia staje się powietrzem
„LLM to towar. Apple chętnie kupi tokeny od firmy LLM, ale Apple to firma sprzedająca zróżnicowane produkty.” — @deuteronormative
To zdanie mówi wprost. Jeśli jesteś Apple, nie będziesz sam wytwarzał energii elektrycznej, kupujesz ją z sieci. Nie będziesz sam produkował opon, kupujesz je od Michelin. Teraz nie będziesz też sam trenował LLM, kupujesz tokeny z chmury.
To nie znaczy, że LLM nie są ważne. Elektryczność jest ważna. Opony są ważne. Ale są infrastrukturą, a nie czynnikiem różnicującym.
Zwycięzca wojny kosztowej
Alibaba właśnie wydała Qwen 3.5:
- 397 miliardów parametrów, 17 miliardów aktywacji
- 60% taniej niż Qwen 3
- 8 razy szybszy
- Cena tokena to 1/18 ceny Gemini 3 Pro
To nie jest przełom technologiczny, to wojna cenowa. Tak samo taniały telewizory LCD. Pierwsza firma, która zeszła poniżej 1000 dolarów, nie była najlepsza technologicznie, ale to ona wygrała.
Pragmatyczne porady
Co to oznacza, jeśli jesteś programistą?
-
Nie trenuj modeli samodzielnie. Chyba że jesteś OpenAI, Anthropic lub Alibaba, trenowanie modeli to strata pieniędzy. Używaj API.
-
Skup się na cenie, a nie na parametrach. 397 miliardów parametrów brzmi fajnie, ale twoich użytkowników to nie obchodzi. Zależy im na szybkości odpowiedzi i kosztach.
-
Przygotuj się na migrację. LLM to towar, co oznacza, że jest wymienny. Dziś używasz GPT, jutro Claude, pojutrze Qwen. Twoja architektura powinna obsługiwać takie przełączanie.
Interesujący paradoks
Ludzie, którzy najlepiej rozumieją LLM, najmniej o nich mówią.
„Andrej Karpathy napisał mini GPT w 240 liniach czystego Pythona. Bez TensorFlow. Bez PyTorch. Tylko matematyka. To pokazuje, że LLM to nie magia – to tylko przewidywanie następnego tokena.”
Kiedy zrozumiesz, że „przewidywanie następnego tokena” to wszystko, co ta technologia ma do zaoferowania, wiele szumu znika. To nie jest deprecjonowanie. Kuchenka mikrofalowa po prostu podgrzewa cząsteczki wody, ale zmieniła kuchnię.
Następny krok
LLM staną się czymś takim jak JPEG: wszechobecne, nikt o nich nie dyskutuje, ale są niezbędne.
Do tego czasu mądrzy ludzie będą wybierać najtańszego dostawcę w wojnie cenowej. Ponieważ gdy technologia staje się towarem, jedyne, co się liczy, to koszt.





