Bakar Satu Bilion Token Sehari? Bil AI Programmer Sedang Menghukum 'Orang yang Malas'
Pembaca Sasaran: Pembangun yang sedang menggunakan alat pengaturcaraan AI (seperti Cursor, Windsurf, trae...), serta pengurus teknikal yang kurang kesedaran tentang kos AI.
Pandangan Teras: Token bukan sekadar unit pengebilan yang mudah, tetapi merupakan 'sumber perhatian' dan 'mata wang kuasa pengiraan'. Menyalahgunakan mod Agen, mengabaikan pengurusan konteks, sebenarnya menggunakan ketekunan taktikal (membiarkan AI meraba-raba) untuk menutupi kemalasan strategik (tidak berfikir sendiri).
Perbelanjaan 'AI' Anda Mungkin Lebih Tinggi Daripada Gaji
Beberapa hari lalu, saya menyemak bil Token saya. Apabila melihat nombor itu, saya agak terkejut: 10 juta Token. Perhatikan, ini bukan penggunaan sebulan, tetapi sehari.
Saya fikir ini sudah keterlaluan. Kemudian, saya menyiarkan video pendek berkaitan pengiraan Token.
Hasilnya, ruangan komen membuat saya melihat apa itu 'ada yang lebih hebat di luar sana'.
Gambar di bawah ialah tangkapan skrin rekod penggunaan 200 juta Token sehari oleh netizen 'Lao K's Daily Life':

Pada mulanya saya fikir mungkin kes terpencil, tetapi apabila ramai netizen meninggalkan komen mengatakan mereka menggunakan 100 juta sehari, saya faham, ini adalah fenomena yang sangat biasa.
Apakah konsep 100 juta Token? Jika mengikut tahap pengebilan biasa 'beberapa model komersial utama' (input/output dikira secara berasingan, digabungkan secara kasar menganggarkan $10 / juta Token), sehari itu membakar $1000. Membakar 7000 yuan RMB sehari. Gaji sebulan ramai programmer peringkat rendah mungkin tidak mencukupi untuk AI 'berfikir' sehari ini.
(Nota: Harga berbeza-beza besar antara model/pembekal, harga unit input dan output juga sering berbeza. Tujuan di sini bukan untuk mengira tepat hingga dua tempat perpuluhan, tetapi untuk mewujudkan 'rasa magnitud' dahulu.)
Jika anda ingin mengira semula sendiri, umumnya formula ini (abaikan peraturan khas seperti cache/diskaun):
kos ≈ (Token input / 1,000,000) × harga_unit_in + (Token output / 1,000,000) × harga_unit_out
Ini terlalu berlawanan dengan intuisi. Kita selalu rasa AI murah, OpenAI malah akan menurunkan harga. Tetapi mengapa dalam kejuruteraan sebenar, penggunaan Token boleh meletup secara eksponen?
Hari ini, mari kita bongkar logik di sebalik 'lubang hitam Token' ini secara mendalam, dan bagaimana kita boleh menghentikan kerugian.
1. Mengapa Token Boleh 'Meletup Secara Eksponen'?
Ramai rakan langsung tidak ada konsep tentang magnitud Token. Berfikir: 'Alah, bukankah hanya menghantar beberapa baris kod? Boleh ada berapa banyak?'
1. Kira satu akaun yang jelas
Kita wujudkan persepsi kuantitatif yang cukup untuk kejuruteraan dahulu. Katakan dengan tegas: Token bukan bilangan perkataan, juga bukan bilangan aksara. Ia adalah 'pecahan pengekodan' selepas model memotong teks, tokenizer yang digunakan oleh model berbeza berbeza, jadi hanya boleh beri julat, bukan 'pemalar yang sesuai di mana-mana'.
Angka-angka di bawah, anggap sebagai 'pengukur anggaran' sahaja (tujuan untuk menilai magnitud, menganggarkan kos, membuat keputusan henti rugi):
- 1 aksara Cina: Biasa dalam 1–2 Token (perkataan frekuensi tinggi lebih hampir 1, perkataan jarang/gabungan mudah sampai 2–3)
- 1 perkataan Inggeris: Biasa sekitar 1.2–1.5 Token (anggaran kasar guna 1.3 juga boleh)
- 1 baris kod ≈ 10–50 Token (termasuk indentasi, komen, pengisytiharan jenis)
- Logik perniagaan ringkas ≈ 12–20 Token
- Dengan anotasi jenis, interface, JSDoc, indentasi 4 ruang ≈ 20–35 Token
- Dengan banyak import / dekorator / komen ≈ 30–50+ Token
- 1 fail sumber (400–600 baris, projek TS/Java moden) ≈ 4,000–24,000 Token sangat biasa (median ≈ 12,000–18,000)
- 1 projek sederhana (100–200 fail sumber, hanya kira
src/, tidak termasuknode_modules// kod terjana) - Hanya 'membaca sekali' kod teras sering bermula juta Token
- Jika masukkan ujian, konfigurasi, skrip, pengisytiharan kebergantungan, log sekali, tidak pelik mencapai puluhan juta Token
Projek front-end sekarang kebanyakannya TypeScript, penuh dengan definisi Interface yang kompleks; atau Java, import berpuluh-puluh baris. 'Kod contoh' ini sebenarnya pembunuh Token. Satu projek sederhana, jika ada 100 fail, hanya meminta AI 'membaca kod sekali', mungkin terus habiskan 1 juta Token.
2. Kesan 'bola salji' token
Yang paling menakutkan tentang penggunaan Token bukan perbualan tunggal, tetapi pengumpulan konteks dalam perbualan berbilang pusingan.
Mekanisme LLM adalah tanpa keadaan. Untuk membolehkan AI ingat apa yang anda katakan sebelum ini, sistem biasanya akan membungkus 'prompt sistem + sejarah perbualan + fail/pecahan kod yang anda rujuk + output panggilan alat (contohnya hasil carian, log ralat)' bersama dan hantar kepada model. Anda fikir anda hanya tanya satu ayat, sebenarnya anda berulang kali membayar untuk 'pakej konteks keseluruhan'.
- Pusingan 1: Hantar 10,000 Token, AI balas 1,000.
- Pusingan 2: Hantar (10,000 + 1,000 + soalan baru), AI balas...
- Pusingan 10: Konteks anda mungkin sudah mengembang kepada 200,000 Token.
Pada masa ini, walaupun anda hanya tanya 'tolong ubah nama pembolehubah', yang digunakan ialah kos 200,000 Token. Inilah sebabnya anda rasa tidak buat apa-apa, tetapi bil melonjak.
Lebih teruk: Mod Agen akan 'membaca fail secara aktif'. Satu ayat 'tolong optima modul pengguna', ia mungkin scan direktori berkaitan dahulu, kemudian kejar kebergantungan, kejar konfigurasi, kejar ujian... Ia bukan malas, ia 'bertanggungjawab mengikut strategi lalai', dan strategi lalai selalunya: banyak baca, banyak cuba, banyak lelaran.
2. Dua Jenis 'Kemalasan' Sedang Merosakkan Keupayaan Kejuruteraan Anda
Selepas membuat analisis semula terhadap beberapa 'abang satu bilion' itu di ruangan komen, saya dapati punca Token melonjak bukan hanya masalah mekanisme penggunaan AI, tetapi juga berkait rapat dengan kemalasan manusia.
Berikut dua jenis 'kemalasan berfikir' tipikal.
Kemalasan satu: Jenis lepas tangan
Adakah anda juga ada mentaliti ini:
- 'Projek lama ini terlalu kucar-kacir, saya malas tengok logik, terus buang kepada AI.'
- 'Cursor ada mod Agen, bagus, biar ia sendiri baiki Bug.'
Lalu, anda buang keseluruhan folder src kepada Agen, beri arahan kabur: 'Tolong optima modul pengguna.' Agen mula bekerja:
- Ia membaca 50 fail (gunakan 500,000).
- Ia dapati rujuk
utils, pergi baca kelas utiliti (gunakan 200,000). - Ia cuba ubah, ralat, baca log ralat (gunakan 100,000).
- Ia cuba baiki, ralat lagi...
Ia cuba secara gila, gunakan Token secara gila. Anda pula? Anda melayari telefon, rasa diri cekap. Kebenaran: Anda menggunakan wang untuk menukar 'kecekapan palsu', menghasilkan timbunan kod yang anda tidak boleh selenggara kemudian.
Lebih profesional, ada dua lapisan kerugian:
- Lapisan kos: Token input membesar, bilangan lelaran bertambah, kos bertindih linear
- Lapisan kejuruteraan: Anda kehilangan konteks dan kuasa keputusan, akhirnya tinggal sistem tidak terkawal 'boleh jalan sahaja'
Kemalasan dua: Jenis lumpur dan pasir
Apabila jumpa Bug, bagaimana anda buang kepada AI? Adakah terus Ctrl+A salin keseluruhan konsol ralat, atau terus @Codebase suruh AI sendiri cari?
Ini dipanggil 'lumpur dan pasir'. Anda malas untuk kenal pasti teras masalah, malas tapis pecahan kod kritikal. Anda buang 99% maklumat tidak berkesan (bunyi bising) dan 1% maklumat berkesan (isyarat) sekali gumpal kepada AI.
AI seperti penguat.
- Anda beri logik jelas (isyarat), ia kuatkan kebijaksanaan anda, Token guna sedikit, kesan baik.
- Anda beri kekacauan dan kekaburan, ia kuatkan kekacauan anda, Token melonjak, hasilkan sampah.
3. Penyelesaian: Bagaimana Menggunakan AI dengan Cekap, Mengurangkan Penggunaan Token
Untuk menjaga dompet anda, lebih penting menjaga kawalan kejuruteraan anda, kita mesti ubah mod kerjasama dengan AI.
1. Prinsip konteks minimum
Ini prinsip pertama pengaturcaraan AI. Sentiasa beri AI set kod minimum yang sepadan dengan masalah semasa.
Dalam Cursor, gunakan operator ini dengan baik:
@File: Hanya rujuk fail berkaitan, bukan keseluruhan folder.Ctrl+Lpilih kod: Hanya hantar 50 baris kod yang dipilih kursor kepada Chat, bukan keseluruhan fail.@Docs: Untuk pustaka pihak ketiga, rujuk dokumentasi bukan suruh ia teka.
Ini yang saya sering guna, SOP berstruktur, boleh guna semula (anda ikut buat, Token akan turun ketara):
Maksud ayat ini: Apabila bekerjasama dengan AI, perhatikan kecekapan dan ketepatan. Cara khusus seperti berikut:
- Jelas matlamat dahulu: Beritahu AI masalah semasa dan hasil yang diharapkan dengan ringkas dan tepat, jangan biar ia teka sendiri.
- Ringkaskan penghasilan semula masalah: Gunakan kaedah termudah untuk hasilkan semula masalah jika boleh, tampal kod minimum dan kritikal, jangan longgok banyak kandungan tidak berkaitan.
- Beri maklumat perlu minimum: Hanya beri 1-3 fail berkaitan, fungsi kritikal dan beberapa baris pertama timbunan ralat sahaja, tidak perlu maklumat penuh.
- Minta kembali titik ubah: Suruh AI hanya beritahu di mana ubah, kenapa ubah, jangan suruh ia tulis semula semua kod panjang lebar.
- Akhirnya anda sendiri kawal: Lakukan pengesanan paling ringkas, pastikan perubahan tidak kesan tempat lain.
Ringkasnya, gunakan maklumat paling sedikit dan paling kritikal untuk suruh AI buat kerja, dan kekalkan kawalan muktamad dan kuasa pertimbangan.
2. Juga paling penting: Fikir dahulu, kemudian Prompt, rancang dahulu, kemudian bertindak
Sebelum tekan enter, paksa diri berhenti 10 saat, tanya diri tiga soalan:
- Saya sedang selesaikan masalah apa? (Tentukan sempadan)
- Masalah ini melibatkan modul teras mana? (Tapis Konteks)
- Jika saya sendiri tulis, bagaimana saya akan tulis? (Beri idea)
Anda ialah 1, AI ialah 0 di belakang. Jika 1 tidak kukuh, 0 di belakang walau banyak, hanya penggunaan tidak bermakna.
Kata-kata dari hati
Kisah '100 juta Token sehari' mungkin tidak berlaku pada setiap orang. Tetapi tingkah laksa membazirkan Token, hampir setiap programmer yang menggunakan pengaturcaraan AI pernah alami.
AI walaupun membuat pengaturcaraan lebih mudah, tetapi masih ada ambang. Orang yang benar-benar tahu guna baru akan seperti harimau bersayap.
Dulu, kod teruk anda hanya 'menjijikkan' rakan sekerja. Sekarang, kemalasan anda, akan terus menjadi nombor pada bil, menghukum diri sendiri dengan kos yang melonjak.
Jadi, jangan jadi 'lepas tangan'. Jadilah arkitek AI yang berfikir mendalam, ungkap tepat, rancang dahulu kemudian bertindak. Ini juga keunikan terbesar kita dalam era ini.




