День сжигается 100 миллионов токенов? AI-счета программистов наказывают «ленивых»

2/13/2026
8 min read

Целевая аудитория: Разработчики, использующие инструменты AI-программирования (такие как Cursor, Windsurf, trae...) и технические менеджеры, не осознающие стоимость AI.

Основная идея: Токен — это не просто единица тарификации, а «ресурс внимания» и «вычислительная валюта». Злоупотребление режимом Agent, игнорирование управления контекстом — это, по сути, прикрытие стратегической лени (не думать самостоятельно) тактической усердностью (заставлять AI заниматься ерундой).

Ваши «AI-расходы» могут быть выше зарплаты

Несколько дней назад я проверил свои счета за токены. Когда я увидел эту цифру, я был немного удивлен: 10 миллионов токенов. Обратите внимание, это не месячное использование, а один день.

Я думал, что это очень возмутительно. Позже я опубликовал короткое видео, связанное с расчетом токенов.

В результате комментарии показали мне, что такое «нет предела совершенству».

На рисунке ниже показана запись потребления 200 миллионов токенов в день пользователем сети «Ежедневная жизнь старого К»:

Сначала я думал, что это может быть единичный случай, но когда многие пользователи сети оставили сообщения, что они потребляют 100 миллионов в день, я понял, что это очень распространенное явление.

Что такое 100 миллионов токенов? Если рассчитать по общему уровню тарификации «некоторых основных коммерческих моделей» (ввод/вывод тарифицируется отдельно, в совокупности грубо оценивается в 10 долларов США / миллион токенов), то в этот день сжигается 1000 долларов США. Сжигается 7000 юаней в день. Зарплаты многих начинающих программистов может не хватить на «размышления» AI в этот день.

(Примечание: цены разных моделей/поставщиков сильно различаются, а цены на ввод и вывод часто разные. Цель здесь не в том, чтобы точно рассчитать до второго знака после запятой, а в том, чтобы сначала установить «чувство масштаба».)

Если вы хотите пересчитать самостоятельно, обычно используется эта формула (игнорируя кэширование/скидки и другие специальные правила): Стоимость ≈ (Входные токены / 1 000 000) × Цена_в + (Выходные токены / 1 000 000) × Цена_из

Это слишком нелогично. Мы всегда думаем, что AI дешев, OpenAI даже собирается снизить цены. Но почему в реальной инженерии потребление токенов взрывается в геометрической прогрессии?

Сегодня я подробно разберу логику, лежащую в основе этой «черной дыры токенов», и то, как нам остановить потери.

I. Почему токены «взрываются в геометрической прогрессии»?

Многие братья совершенно не представляют себе объем токенов. Они думают: «Ой, разве это не просто несколько фрагментов кода? Сколько их может быть?»

1. Рассчитайте четкий счет

Сначала мы установим количественное восприятие, достаточное для инженерного использования. Сначала скажем это наверняка: Токен — это не количество слов и не количество символов. Это «фрагмент кодирования», который модель разделяет после текста. Разные модели используют разные токенизаторы, поэтому можно дать только диапазон, а не «универсальную» константу.

Рассматривайте эти цифры как «измерительную линейку» (цель состоит в том, чтобы оценить масштаб, оценить стоимость, принять решение об остановке убытков):

  • 1 китайский иероглиф: обычно 1–2 токена (высокочастотные иероглифы ближе к 1, редкие иероглифы/комбинации легче достигают 2–3)

  • 1 английское слово: обычно около 1,2–1,5 токена (для грубой оценки можно использовать 1,3)

  • 1 строка кода ≈ 10–50 токенов (включая отступы, комментарии, объявления типов)

  • Краткая бизнес-логика ≈ 12–20 токенов

  • С аннотациями типов, интерфейсом, JSDoc, отступом в 4 пробела ≈ 20–35 токенов

  • С большим количеством import / декораторов / комментариев ≈ 30–50+ токенов

  • 1 исходный файл (400–600 строк, современный проект TS/Java) ≈ 4 000–24 000 токенов — это обычное явление (медиана ≈ 12 000–18 000)

  • 1 проект среднего размера (100–200 исходных файлов, только src/, без node_modules/ / сгенерированного кода)

  • «Прочитать» основной исходный код «один раз» часто начинается с миллиона токенов

  • Если добавить тесты, конфигурации, скрипты, объявления зависимостей и журналы, то не удивительно, что получится десятки миллионов токенов

Современные проекты на стороне клиента — это TypeScript, полный сложных определений интерфейсов; или Java, с десятками строк Import. Этот «шаблонный код» на самом деле является убийцей токенов. Если в проекте среднего размера 100 файлов, то просто позволить AI «прочитать код» может напрямую уничтожить 1 миллион токенов.

2. Эффект «снежного кома» токенов

Самое страшное в потреблении токенов — это не однократный разговор, а накопление контекста в многократных разговорах.

Механизм LLM не имеет состояния. Чтобы AI помнил, что вы сказали в прошлый раз, система обычно отправляет модели «системные подсказки + историю разговоров + фрагменты файлов/кода, которые вы цитируете + вывод вызова инструмента (например, результаты поиска, журналы ошибок)» вместе. Вы думаете, что задали только один вопрос, но на самом деле вы неоднократно платите за «весь контекстный пакет».

  • 1-й раунд: отправлено 10 000 токенов, AI отвечает 1 000.

  • 2-й раунд: отправлено (10 000 + 1 000 + новый вопрос), AI отвечает...

  • 10-й раунд: ваш контекст может раздуться до 200 000 токенов.

В это время, даже если вы просто спросите «помоги мне изменить имя переменной», вы потратите 200 000 токенов. Вот почему вы чувствуете, что ничего не делаете, но ваш счет растет как на дрожжах.

Что еще хуже: режим Agent будет «активно читать файлы». Вы говорите «помоги мне оптимизировать модуль пользователя», он может сначала просканировать соответствующие каталоги, затем перейти к зависимостям, затем к конфигурациям, затем к тестам... Он не ленится, он «ответственно выполняет свои обязанности в соответствии со стратегией по умолчанию», а стратегия по умолчанию часто заключается в: больше читать, больше пробовать, больше итераций.

II. Два вида «лени» разрушают ваши инженерные возможности

После анализа нескольких «миллионеров» в разделе комментариев я обнаружил, что корень безудержного роста токенов заключается не только в проблеме механизма потребления AI, но и в лени людей.

Ниже приведены два типичных примера «мыслительной лени».

Лень первая: тип «свалить все на других»

У вас тоже есть такое мышление?

  • «Этот старый проект слишком запутанный, мне лень смотреть логику, просто отдам его AI».

  • «Cursor выпустил режим Agent, отлично, пусть сам исправит ошибку».

Итак, вы бросаете всю папку src Agent и даете расплывчатую инструкцию: «Помоги мне оптимизировать модуль пользователя». Agent начинает работать:

  • Он прочитал 50 файлов (потреблено 500 000).

  • Он обнаружил, что ссылается на utils, и снова прочитал классы инструментов (потреблено 200 000).

  • Он попытался изменить, произошла ошибка, прочитал журнал ошибок (потреблено 100 000).

  • Он попытался исправить, и снова произошла ошибка...

Он безумно пробует и ошибается, безумно потребляя токены. А вы? Вы просматриваете свой телефон, чувствуя, что ваша эффективность действительно высока. Правда в том, что вы обмениваете деньги на «псевдоэффективность», производя кучу кода, который вы не сможете поддерживать позже.

Говоря более профессионально, здесь есть два уровня потерь:

  • Уровень затрат: увеличение входных токенов, увеличение количества итераций, линейное увеличение затрат

  • Инженерный уровень: вы теряете контекст и право принятия решений, и в конечном итоге остается только неконтролируемая система «лишь бы работала»

Лень вторая: тип «все в кучу»

Как вы передаете ошибку AI? Вы просто копируете весь журнал ошибок Ctrl+A или позволяете AI найти его самостоятельно с помощью @Codebase?

Это называется «все в кучу». Вам лень определять ядро проблемы, лень отбирать ключевые фрагменты кода. Вы бросаете AI 99% недействительной информации (шума) и 1% действительной информации (сигнала).

AI похож на усилитель.

  • Вы даете ему четкую логику (сигнал), он усиливает вашу мудрость, потребляется меньше токенов, эффект хороший.

  • Вы даете ему хаос и двусмысленность, он усиливает ваш хаос, токены взлетают до небес, производя мусор.

III. Решение: как эффективно использовать AI, снизить потребление токенов

Чтобы сохранить свой кошелек, важнее всего сохранить инженерный контроль, мы должны изменить режим сотрудничества с AI.

1. Принцип минимального контекста

Это первый принцип AI-программирования. Всегда давайте AI только минимальный набор кода, соответствующий текущей проблеме.

В Cursor используйте эти операторы:

  • @File: ссылайтесь только на соответствующие файлы, а не на всю папку.

  • Ctrl+L Выберите код: отправьте в чат только 50 строк кода, выбранных курсором, а не весь файл.

  • @Docs: для сторонних библиотек ссылайтесь на документацию, а не позволяйте ему гадать.

Это SOP, который я часто использую, структурированный и многократно используемый (если вы будете следовать ему, токены будут заметно падать):

Этот абзац означает, что при сотрудничестве с AI следует обращать внимание на эффективность и точность. Конкретные методы следующие:

  • Сначала определите цель: кратко и ясно сообщите AI о текущей проблеме и желаемом результате, не позволяйте ему гадать самостоятельно.

  • Упростите воспроизведение проблемы: используйте самый простой способ воспроизведения проблемы, а не сложный способ, вставьте минимум и ключевой код, не нагромождайте много не относящегося к делу контента.

  • Предоставьте минимально необходимую информацию: предоставьте только 1-3 соответствующих файла, ключевые функции и первые несколько строк стека ошибок, а не всю информацию.

  • Потребуйте вернуть точки изменения: позвольте AI сообщить вам только то, где изменить и почему изменить, не позволяйте ему переписывать весь код в больших масштабах.

  • Наконец, вы сами проверяете: проведите самую простую проверку, чтобы убедиться, что изменения не влияют на другие места.

Короче говоря, используйте минимум и ключевую информацию, чтобы заставить AI работать, и сохраните окончательный контроль и суждение.

2. И самое главное: сначала подумайте, затем запросите, сначала спланируйте, затем действуйте

Прежде чем нажать Enter, заставьте себя остановиться на 10 секунд и задать себе три вопроса:

  • Какую проблему я решаю? (определите границы)

  • Какие основные модули затрагивает эта проблема? (отфильтруйте контекст)

  • Как бы я написал это сам? (предоставьте идеи)

Вы — 1, AI — это 0 позади. Если 1 не может устоять, то сколько бы 0 ни было позади, это просто бессмысленное потребление.

Несколько слов от всего сердца

История «100 миллионов токенов в день» может и не произойдет с каждым. Но поведение, связанное с тратой токенов впустую, испытывает почти каждый программист, использующий AI-программирование.

Хотя AI упрощает программирование, все еще существуют пороги. Действительно умелые люди будут как тигр с крыльями.

Раньше ваш плохой код только «раздражал» коллег. Теперь ваша лень напрямую превратится в цифры в счете, наказывая себя растущими затратами. Поэтому, не будьте «отстраненным руководителем». Будьте AI-архитектором, который глубоко мыслит, точно выражает свои мысли, планирует, а затем действует. Это также наша самая большая незаменимость в эту эпоху.

Published in Technology

You Might Also Like

Рекомендации по 10 лучшим инструментам ИИ на 2026 год: раскрытие истинного потенциала искусственного интеллектаTechnology

Рекомендации по 10 лучшим инструментам ИИ на 2026 год: раскрытие истинного потенциала искусственного интеллекта

Рекомендации по 10 лучшим инструментам ИИ на 2026 год: раскрытие истинного потенциала искусственного интеллекта В эпоху ...

Топ 10 инструментов и ресурсов AWS на 2026 годTechnology

Топ 10 инструментов и ресурсов AWS на 2026 год

Топ 10 инструментов и ресурсов AWS на 2026 год В быстро развивающейся области облачных вычислений Amazon Web Services (A...

10 секретов успеха стартапов 2026 года: как выделиться в конкурентной средеTechnology

10 секретов успеха стартапов 2026 года: как выделиться в конкурентной среде

10 секретов успеха стартапов 2026 года: как выделиться в конкурентной среде В этой быстро меняющейся бизнес-среде старта...

Рекомендации по 10 лучшим AI инструментам 2026 года: лучшие выборы для повышения рабочей эффективностиTechnology

Рекомендации по 10 лучшим AI инструментам 2026 года: лучшие выборы для повышения рабочей эффективности

Рекомендации по 10 лучшим AI инструментам 2026 года: лучшие выборы для повышения рабочей эффективности В эпоху стремител...

Лучший терминал Claude Code, чем iTerm2!Technology

Лучший терминал Claude Code, чем iTerm2!

# Лучший терминал Claude Code, чем iTerm2! Здравствуйте, я Гид. Сегодня я расскажу вам о нескольких "современных термин...

Рекомендации по 10 лучшим инструментам AI для программирования в 2026 году: лучшие помощники для повышения эффективности разработкиTechnology

Рекомендации по 10 лучшим инструментам AI для программирования в 2026 году: лучшие помощники для повышения эффективности разработки

# Рекомендации по 10 лучшим инструментам AI для программирования в 2026 году: лучшие помощники для повышения эффективнос...