LLM - это следующий JPEG
Позвольте мне рассказать историю.
В 1990-х годах, если вы хотели отправить фотографию кому-то, вам нужно было многое учитывать: формат файла, алгоритм сжатия, глубину цвета. У каждого программного обеспечения был свой формат. Затем появился JPEG.
Внезапно никто больше не заботился о формате изображений. JPEG стал инфраструктурой. Вы не говорите «Я сделал изображение в JPEG», вы просто говорите «Я отправил изображение».
LLM идет по тому же пути.
Когда технология становится воздухом
"LLM - это товар. Apple с удовольствием покупает токены у компаний, занимающихся LLM, но Apple - компания, продающая дифференцированные продукты." — @deuteronormative
Это сказано прямо. Если вы Apple, вы не будете сами вырабатывать электроэнергию, вы покупаете ее из электросети. Вы не будете сами производить шины, вы покупаете их у Michelin. Теперь вы также не будете сами обучать LLM, вы покупаете токены из облака.
Это не значит, что LLM не важны. Электричество важно. Шины важны. Но они являются инфраструктурой, а не фактором дифференциации.
Победитель в ценовой войне
Только что выпущенный Alibaba Qwen 3.5:
- 397 миллиардов параметров, 17 миллиардов активных
- На 60% дешевле, чем Qwen 3
- В 8 раз быстрее
- Цена токена составляет 1/18 от Gemini 3 Pro
Это не технологический прорыв, это ценовая война. В свое время ЖК-телевизоры тоже так дешевели. Первая компания, опустившая цену ниже 1000 долларов, не была лучшей в технологическом плане, но она стала победителем.
Прагматичные советы
Что это значит, если вы разработчик?
-
Не обучайте модели самостоятельно. Если вы не OpenAI, Anthropic или Alibaba, то обучение моделей - это пустая трата денег. Используйте API.
-
Сосредоточьтесь на цене, а не на параметрах. 397 миллиардов параметров звучит круто, но вашим пользователям все равно. Их волнует скорость ответа и стоимость.
-
Будьте готовы к миграции. LLM - это товар, что означает взаимозаменяемость. Сегодня используете GPT, завтра Claude, послезавтра Qwen. Ваша архитектура должна поддерживать такое переключение.
Интересный парадокс
Люди, которые лучше всего разбираются в LLM, меньше всего говорят о LLM.
"Andrej Karpathy написал мини-GPT на 240 строках чистого Python. Без TensorFlow. Без PyTorch. Только математика. Это показывает, что LLM - это не магия - это просто предсказание следующего токена."
Когда вы понимаете, что «предсказание следующего токена» - это все, что есть в этой технологии, большая часть шумихи исчезает. Это не принижение. Микроволновка просто нагревает молекулы воды, но она изменила кухню.
Следующий шаг
LLM станет чем-то вроде JPEG: повсеместным, никто не обсуждает, но незаменимым.
До тех пор умные люди будут выбирать самого дешевого поставщика в ценовой войне. Потому что, когда технология становится товаром, единственное, что имеет значение, - это стоимость.





