LLM - це наступний JPEG
Дозвольте мені розповісти історію.
У 1990-х роках, якщо ви хотіли надіслати фотографію комусь іншому, вам потрібно було багато чого враховувати: формат файлу, алгоритм стиснення, глибину кольору. Кожне програмне забезпечення мало свій власний формат. Потім з'явився JPEG.
Раптом ніхто більше не переймався форматом зображення. JPEG став інфраструктурою. Ви не скажете «Я зробив зображення за допомогою JPEG», ви просто скажете «Я надіслав зображення».
LLM йде тим самим шляхом.
Коли технологія стає повітрям
"LLM - це товар. Apple із задоволенням купуватиме токени у компаній, що займаються LLM, але Apple - це компанія, яка продає диференційовані продукти." — @deuteronormative
Це сказано прямо. Якщо ви Apple, ви не будете виробляти електроенергію самостійно, ви купуєте електроенергію з електромережі. Ви не будете виробляти шини самостійно, ви купуєте шини у Michelin. Тепер ви також не будете навчати LLM самостійно, ви купуєте токени з хмари.
Це не означає, що LLM не важливі. Електроенергія важлива. Шини важливі. Але вони є інфраструктурою, а не фактором диференціації.
Переможець у ціновій війні
Qwen 3.5, щойно випущений Alibaba:
- 397 мільярдів параметрів, 17 мільярдів активних
- На 60% дешевше, ніж Qwen 3
- У 8 разів швидше
- Ціна токена становить 1/18 від Gemini 3 Pro
Це не технологічний прорив, це цінова війна. Рідкокристалічні телевізори також подешевшали таким чином. Першим підприємством, яке впало нижче 1000 доларів США, було не те, що мало найкращі технології, але воно було переможцем.
Прагматичні поради
Що це означає, якщо ви розробник?
-
Не навчайте моделі самостійно. Якщо ви не OpenAI, Anthropic або Alibaba, навчання моделей - це марна трата грошей. Використовуйте API.
-
Зосереджуйтеся на ціні, а не на параметрах. 397 мільярдів параметрів звучать круто, але ваших користувачів це не хвилює. Їх хвилює швидкість відповіді та вартість.
-
Будьте готові до міграції. LLM - це товар, що означає, що його можна замінити. Сьогодні використовуйте GPT, завтра Claude, післязавтра Qwen. Ваша архітектура повинна підтримувати таке перемикання.
Цікавий парадокс
Люди, які найбільше знають про LLM, найменше говорять про LLM.
"Andrej Karpathy написав міні-GPT на 240 рядках чистого Python. Без TensorFlow. Без PyTorch. Лише математика. Це показує, що LLM - це не магія - це просто прогнозування наступного токена."
Коли ви розумієте, що «прогнозування наступного токена» - це все, що є в цій технології, багато ажіотажу зникає. Це не приниження. Мікрохвильова піч також нагріває молекули води, але вона змінила кухню.
Наступний крок
LLM стане чимось на зразок JPEG: всюдисущим, ніхто не обговорює, але незамінним.
До того часу розумні люди вибиратимуть найдешевшого постачальника в ціновій війні. Тому що, коли технологія стає товаром, єдине, що має значення, - це вартість.





