Ühe päevaga põletatakse 100 miljonit Tokenit? Programmeerijate AI arved karistavad "laiskureid"
Sihtrühm: Arendajad, kes kasutavad AI programmeerimisvahendeid (nagu Cursor, Windsurf, trae jne) ja tehnilised juhid, kellel puudub arusaam AI kuludest.
Põhiline seisukoht: Token ei ole lihtsalt arveldustäht, vaid "tähelepanu ressurss" ja "arvutusvõimsuse valuuta". Agent-režiimi kuritarvitamine ja kontekstihaldamise eiramine tähendab tegelikult taktikalise usinuse (AI-l lastakse pimesi tegutseda) kasutamist strateegilise laiskuse varjamiseks (ise ei mõelda).
Sinu "AI kulud" võivad olla suuremad kui palk
Paar päeva tagasi kontrollisin oma Tokeni arvet. Kui ma seda numbrit nägin, olin ma veidi üllatunud: 10 miljonit Tokenit. Pange tähele, see ei ole ühe kuu kasutus, vaid üks päev.
Ma arvasin, et see on minu puhul äärmuslik. Hiljem postitasin Tokeni arvutusega seotud lühivideo.
Selle tulemusena näitas kommentaaride sektsioon mulle, mis on "taevas taeva kohal".
Allpool olev pilt on kasutaja "老K的日常" (Vana K igapäevaelu) ekraanipilt 200 miljoni Tokeni päevasest tarbimisest:

Alguses arvasin, et see on üksikjuhtum, kuid kui paljud kasutajad kommenteerisid, et nad kulutavad iga päev 100 miljonit, mõistsin, et see on väga levinud nähtus.
Mis on 100 miljonit Tokenit? Kui arvestada "mõnede peavoolu ärimudelite" tavalise arveldustasemega (sisend/väljund arveldatakse eraldi, kokku ligikaudu 10 dollarit / miljon Tokenit), siis põletatakse sellega 1000 dollarit päevas. 7000 RMB-d põletatakse päevas. Paljude algajate programmeerijate ühe kuu palk ei pruugi olla piisav, et AI "mõtleks" selle ühe päeva jooksul.
(Märkus: Erinevate mudelite/tarnijate hinnad on väga erinevad ning sisendi ja väljundi ühikuhinnad on samuti sageli erinevad. Siin ei ole eesmärk arvutada täpselt kuni kümnendkohani, vaid luua kõigepealt "suurusjärgu tunnetus".)
Kui soovite ise arvutada, on üldiselt olemas see üks valem (jättes tähelepanuta vahemälu/allahindlused ja muud erireeglid):
Kulu ≈ (SisendToken / 1 000 000) × Hind_in + (VäljundToken / 1 000 000) × Hind_out
See on väga vastuintuitiivne. Me arvame alati, et AI on odav, OpenAI isegi alandab hindu. Aga miks Tokeni tarbimine tegelikus inseneritöös eksponentsiaalselt plahvatab?
Täna võtame sügavalt lahti selle "Tokeni musta augu" taga oleva loogika ja kuidas me saame kahju peatada.
I. Miks Tokenid "eksponentsiaalselt plahvatavad"?
Paljudel vendadel pole Tokeni mahust üldse aimu. Nad arvavad: "Ah, see on lihtsalt mõne koodilõigu saatmine? Kui palju see ikka olla saab?"
1. Arvutage selge arve
Esmalt loome inseneritöö jaoks piisava kvantitatiivse taju. Ütleme selle kõigepealt selgelt välja: Token ei ole sõnade arv ega ka tähemärkide arv. See on mudeli poolt teksti tükeldamisel saadud "kodeeritud fragment", erinevatel mudelitel on erinevad tokenizerid, seega saab anda ainult vahemiku, mitte "universaalse" konstandi.
Allpool toodud numbreid saate kasutada "hindamisskaalana" (eesmärk on hinnata suurusjärku, prognoosida kulusid ja teha kahjude piiramise otsuseid):
-
1 hiina tähemärk: tavaliselt 1–2 Tokenit (sagedased tähemärgid on lähemal 1-le, haruldased tähemärgid/kombinatsioonid on kergemini 2–3)
-
1 inglise sõna: tavaliselt umbes 1,2–1,5 Tokenit (jämedaks hindamiseks võib kasutada ka 1,3)
-
1 koodirida ≈ 10–50 Tokenit (sh taanded, kommentaarid, tüübi deklaratsioonid)
-
Lihtne äriloogika ≈ 12–20 Tokenit
-
Tüübi annotatsioonide, interface'i, JSDoc'i, 4 tühiku taandega ≈ 20–35 Tokenit
-
Suure hulga importide / dekoraatorite / kommentaaridega ≈ 30–50+ Tokenit
-
1 lähtefail (400–600 rida, kaasaegne TS/Java projekt) ≈ 4000–24 000 Tokenit on väga tavaline (mediaan ≈ 12 000–18 000)
-
1 keskmise suurusega projekt (100–200 lähtefaili, ainult
src/, ilmanode_modules// genereeritud koodita) -
Põhilise lähtekoodi "läbilugemine" algab sageli miljoni Tokeniga
-
Kui lisada ka testid, konfiguratsioonid, skriptid, sõltuvusdeklaratsioonid ja logid, pole 10 miljonit Tokenit haruldane
Praegused esiotsa projektid on kõik TypeScriptis, täis keerulisi Interface definitsioone; või Java, kus on sageli kümneid ridu Importe. Need "boiler plate" koodid on tegelikult Tokeni tapjad. Kui keskmise suurusega projektis on 100 faili, võib AI-l "koodi läbilugemine" otse 1 miljon Tokenit ära kulutada.
2. Tokeni "lumepalli" efekt
Tokeni tarbimise kõige hullem asi ei ole ühekordne vestlus, vaid konteksti kuhjumine mitmes vestlusvoorus.
LLM-i mehhanism on olekuta. Selleks, et AI mäletaks, mida sa eelmine kord ütlesid, pakib süsteem tavaliselt kokku "süsteemse viipa + varasemad vestlused + sinu viidatud failid/koodilõigud + tööriistade väljundid (nt otsingutulemused, veateated)" ja saadab selle mudelile. Sa arvad, et sa küsisid ainult ühe küsimuse, aga tegelikult maksad sa korduvalt "terve kontekstipaketi" eest.
-
1. voor: saadetakse 10 000 Tokenit, AI vastab 1000.
-
2. voor: saadetakse (10 000 + 1000 + uus küsimus), AI vastab...
-
10. voor: sinu kontekst on võib-olla paisunud 200 000 Tokenini.
Sel hetkel, isegi kui sa küsid ainult "aita mul muuta muutuja nime", kulutad sa 200 000 Tokeni väärtuses tasu. See on põhjus, miks sa tunned, et sa ei teinud midagi, aga arve kasvab metsikult.
Veelgi hullem on see, et Agent-režiim "loeb faile aktiivselt". Sa ütled "aita mul optimeerida kasutajamoodulit", see võib kõigepealt skaneerida seotud kataloogid, seejärel jälgida sõltuvusi, seejärel jälgida konfiguratsioone, seejärel jälgida teste... See ei ole laisk, see on "kohusetundlik vastavalt vaikestrateegiale" ja vaikestrateegia on sageli: loe rohkem, proovi rohkem, itereeri rohkem.
II. Kaks "laiskust" hävitavad sinu insenerivõimekust
Pärast kommentaaride sektsioonis olevate "100 miljoni vendade" ülevaatamist leidsin, et Tokeni plahvatusliku kasvu juured ei ole ainult AI tarbimismehhanismi probleem, vaid ka inimese laiskusega tihedalt seotud.
Allpool on kaks tüüpilist "mõttelaiskust".
Laiskus üks: käed eemale tüüpi
Kas sul on ka selline mentaliteet:
-
"See vana projekt on liiga sassis, ma ei viitsi loogikat vaadata, viskan selle otse AI-le."
-
"Cursoril on Agent-režiim, suurepärane, las see parandab ise vead."
Seega viskad sa terve src kausta Agendile ja annad ebamäärase käsu: "Aita mul kasutajamoodulit optimeerida." Agent hakkab tööle:
-
See loeb 50 faili (kulutab 500 000).
-
See avastab, et on viidatud
utilsile, ja läheb lugema tööriistaklasse (kulutab 200 000). -
See proovib muuta, tekib viga, loeb veateateid (kulutab 100 000).
-
See proovib parandada, tekib jälle viga...
See proovib ja eksib meeletult, kulutades meeletult Tokeneid. Aga sina? Sa sirvid telefoni ja tunned, et oled tõesti tõhus. Tegelikkus on see, et sa vahetad raha "pseudo-tõhususe" vastu, tootes hulga koodi, mida sa hiljem ei suuda hooldada.
Professionaalsemalt öeldes on siin kaks kihti kahju:
-
Kulukiht: sisend Token muutub suuremaks, iteratsioonide arv suureneb, kulud liituvad lineaarselt
-
Insenerikiht: sa kaotad konteksti ja otsustusõiguse ning lõpuks jääb järele ainult "peaasi, et töötab" kontrollimatu süsteem
Laiskus kaks: kõik koos
Kui sa kohtad viga, kuidas sa selle AI-le viskad? Kas sa kopeerid otse Ctrl+A kogu veateate konsooli või lased AI-l otse @Codebase ise otsida?
Seda nimetatakse "kõik koos". Sa ei viitsi probleemi tuuma leida, sa ei viitsi valida välja olulisi koodilõike. Sa viskad AI-le 99% kehtetut teavet (müra) ja 1% kehtivat teavet (signaal) korraga.
AI on nagu võimendi.
-
Sa annad talle selge loogika (signaali), see võimendab sinu tarkust, Tokeneid kulub vähe ja efekt on hea.
-
Sa annad talle segadust ja ebamäärasust, see võimendab sinu segadust, Tokenid kasvavad metsikult ja toodavad prügi.
III. Lahendus: kuidas AI-d tõhusalt kasutada ja Tokeni tarbimist vähendada
Selleks, et oma rahakotti kaitsta, on veelgi olulisem kaitsta oma insenerikontrolli, me peame muutma oma koostöömudelit AI-ga.
1. Minimaalse konteksti põhimõte
See on AI programmeerimise esimene põhimõte. Anna AI-le alati ainult praeguse probleemi lahendamiseks vajalik minimaalne koodikomplekt.
Cursoris kasuta hästi neid operaatoreid:
-
@File: viita ainult seotud failidele, mitte tervele kaustale. -
Ctrl+LVali kood: saada Chat'ile ainult kursori poolt valitud 50 koodirida, mitte tervet faili. -
@Docs: kolmandate osapoolte teekide puhul viita dokumentatsioonile, mitte ära lase tal arvata.
See on minu sageli kasutatav, struktureeritud ja taaskasutatav SOP (kui sa seda järgid, langeb Token silmnähtavalt):
See tähendab: AI-ga koostööd tehes pöörake tähelepanu tõhususele ja täpsusele. Konkreetsed meetodid on järgmised:
-
Esmalt selgitage eesmärk: öelge AI-le lühidalt ja täpselt praegune probleem ja soovitud tulemus, ärge laske tal ise arvata.
-
Lihtsustage probleemi taasesitamist: kui saate probleemi taasesitada kõige lihtsamal viisil, ärge kasutage keerulist meetodit, kleepige kõige vähem ja olulisemat koodi, ärge kuhjake kokku suurt hulka ebaolulist sisu.
-
Esitage minimaalselt vajalikku teavet: andke ainult 1–3 seotud faili, olulised funktsioonid ja veamälu esimesed read, ärge andke kogu teavet.
-
Nõudke muudatuste tagastamist: laske AI-l öelda ainult, kus muuta ja miks muuta, ärge laske tal kogu koodi suures mahus ümber kirjutada.
-
Lõpuks kontrollige ise: tehke kõige lihtsam kontroll, et veenduda, et muudatused ei mõjuta teisi kohti.
Lühidalt öeldes kasutage AI-ga töötamiseks kõige vähem ja olulisemat teavet ning säilitage lõplik kontroll ja otsustusõigus.
2. Samuti kõige olulisem: mõtle kõigepealt, siis küsi, planeeri kõigepealt, siis tegutse
Enne Enteri vajutamist sundige end 10 sekundit peatuma ja küsige endalt kolm küsimust:
-
Millist probleemi ma lahendan? (määratle piirid)
-
Milliseid põhimooduleid see probleem hõlmab? (sõelu kontekst)
-
Kui ma ise kirjutaksin, siis kuidas ma kirjutaksin? (paku ideid)
Sina oled 1, AI on järgnev 0. Kui 1 ei seisa, on järgnevad 0-d, olenemata kui palju neid on, lihtsalt mõttetu tarbimine.
Mõned südamest tulevad sõnad
Lugu "100 miljonit Tokenit päevas" ei pruugi juhtuda igaühega. Kuid Tokeni raiskamist kogevad peaaegu kõik AI programmeerimist kasutavad programmeerijad.
Kuigi AI muudab programmeerimise lihtsamaks, on sellel siiski lävi. Tõeliselt teadlikud inimesed saavad sellest kasu.
Enne tekitas sinu halb kood ainult kolleegidele "vastikust". Nüüd muutub sinu laiskus otse arvel olevaks numbriks, karistades sind kasvavate kuludega.Seega, ära ole "käed eemal" juht. Ole sügavalt mõtlev, täpselt väljendav, planeeriv ja seejärel tegutsev AI arhitekt. See on ka meie suurim asendamatus sel ajastul.




