Një ditë digjen njëqind milionë Token? Faturat e AI të programuesve po ndëshkojnë "njerëzit dembelë"

2/13/2026
10 min read

Lexuesit e synuar: Zhvilluesit që përdorin mjete programimi AI (si Cursor, Windsurf, trae...) dhe menaxherët teknikë që nuk kanë njohuri për kostot e AI.

Pikëpamja kryesore: Token nuk është vetëm një njësi e thjeshtë faturimi, por një "burim vëmendjeje" dhe "monedhë llogaritëse". Abuzimi me modelin Agent dhe neglizhimi i menaxhimit të kontekstit janë në fakt duke përdorur zellin taktik (duke lënë AI të bëjë çmenduri) për të mbuluar dembelizmin strategjik (duke mos menduar vetë).

"Shpenzimet tuaja për AI" mund të jenë më të larta se paga juaj

Para disa ditësh, kontrollova faturën time të Token. Kur pashë atë numër, u befasova pak: 10 milionë Token. Vini re, ky nuk është një përdorim mujor, është një ditë.

Mendova se kjo ishte e tepruar. Më vonë postova një video të shkurtër në lidhje me llogaritjen e Token.

Si rezultat, zona e komenteve më tregoi se çfarë do të thotë "qielli brenda qiellit".

Figura e mëposhtme është një pamje e ekranit e regjistrit të konsumit të dyqind milionë Token në ditë nga përdoruesi i internetit "Jeta e përditshme e Lao K":

Në fillim mendova se mund të ishte një rast i izoluar, por kur shumë përdorues të internetit thanë në komente se konsumonin 100 milionë në ditë, e kuptova se ky ishte një fenomen shumë i zakonshëm.

Çfarë koncepti është njëqind milionë Token? Nëse llogaritet sipas nivelit të zakonshëm të faturimit të "disa modeleve kryesore komerciale" (faturimi i hyrjes/daljes veçmas, i kombinuar përafërsisht sipas 10 dollarë amerikanë / milion Token për të vlerësuar nivelin), kjo digjet 1000 dollarë në ditë. 7000 juanë digjen në ditë. Paga mujore e shumë programuesve fillestarë mund të mos jetë e mjaftueshme për "të menduar" AI për këtë ditë.

(Shënim: Ka dallime të mëdha në çmimet e modeleve/furnizuesve të ndryshëm, dhe çmimet njësi të hyrjes dhe daljes shpesh janë të ndryshme. Qëllimi këtu nuk është të llogaritet me saktësi deri në dy shifra pas presjes dhjetore, por së pari të vendoset "ndjenja e nivelit".)

Nëse dëshironi të rilogaritni vetë, në përgjithësi ekziston vetëm kjo formulë (duke injoruar rregullat speciale si cache/zbritje): Kostoja ≈ (Hyrja Token / 1,000,000) × Çmimi njësi_in + (Dalja Token / 1,000,000) × Çmimi njësi_out

Kjo gjë është shumë kundërintuitive. Ne gjithmonë mendojmë se AI është e lirë, dhe OpenAI madje do të ulë çmimet. Por pse në inxhinierinë aktuale, konsumi i Token do të shpërthejë në mënyrë eksponenciale?

Sot, do t'ju çoj të dekonstruktoni thellësisht logjikën pas këtij "vrime të zezë Token", dhe si duhet të ndalojmë humbjet.

I. Pse Token "shpërthejnë në mënyrë eksponenciale"?

Shumë vëllezër nuk kanë fare koncept për vëllimin e Token. Ata mendojnë: "Oh, a nuk është vetëm dërgimi i disa pjesëve të kodit? Sa mund të ketë?"

1. Llogarit një llogari të qartë

Së pari, le të krijojmë një perceptim sasior që është i dobishëm në inxhinieri. Së pari, le ta themi pak më prerë: Token nuk është numri i fjalëve, as numri i karaktereve. Është "fragmenti i koduar" pas ndarjes së tekstit nga modeli. Tokenizerët e ndryshëm përdoren nga modele të ndryshme, kështu që mund të jepet vetëm një interval, jo një konstante "e vlefshme për të gjitha rastet".

Numrat e mëposhtëm, ju i trajtoni si "shkallë vlerësimi" (qëllimi është të gjykoni nivelin, të vlerësoni koston, të merrni vendime për ndalimin e humbjeve):

  • 1 karakter kinez: Zakonisht 1–2 Token (karakteret me frekuencë të lartë janë më afër 1, karakteret/kombinimet e rralla kanë më shumë gjasa të jenë 2–3)

  • 1 fjalë angleze: Zakonisht rreth 1.2–1.5 Token (vlerësimi i përafërt mund të përdorë gjithashtu 1.3)

  • 1 rresht kodi ≈ 10–50 Token (përfshirë indentacionin, komentet, deklaratat e tipit)

  • Logjikë e thjeshtë biznesi ≈ 12–20 Token

  • Me shënime të tipit, ndërfaqe, JSDoc, indentacion me 4 hapësira ≈ 20–35 Token

  • Me një numër të madh importesh / dekoruesish / komentesh ≈ 30–50+ Token

  • 1 skedar burimor (400–600 rreshta, projekte moderne TS/Java) ≈ 4,000–24,000 Token është shumë e zakonshme (mesatare ≈ 12,000–18,000)

  • 1 projekt i mesëm (100–200 skedarë burimorë, vetëm llogarit src/, pa node_modules/ / kod të gjeneruar)

  • "Leximi i të gjithë" kodit burimor thelbësor shpesh fillon me miliona Token

  • Nëse futen edhe testet, konfigurimet, skriptet, deklaratat e varësisë dhe regjistrat, nuk është e pazakontë të keni dhjetëra miliona Token

Projektet e sotme të front-end janë të gjitha TypeScript, të mbushura me definicione komplekse të ndërfaqes; ose Java, me dhjetëra rreshta Import në çdo kthesë. Ky "kod shabllon" është në fakt një vrasës Token. Një projekt i mesëm, nëse ka 100 skedarë, vetëm duke lënë AI "të lexojë kodin një herë", ka shumë të ngjarë të heqë direkt 1 milion Token.

2. Efekti "topi i borës" i token

Gjëja më e frikshme për konsumin e Token nuk është një bisedë e vetme, por akumulimi i kontekstit në biseda të shumta.

Mekanizmi i LLM është pa gjendje. Në mënyrë që AI të mbajë mend atë që thatë në fjalinë e fundit, sistemi zakonisht do të paketojë së bashku "kërkesën e sistemit + bisedat e kaluara + fragmentet e skedarëve/kodit që citoni + daljen e thirrjeve të veglave (si rezultatet e kërkimit, regjistrat e gabimeve)" dhe do t'ia dërgojë modelit. Ju mendoni se keni bërë vetëm një pyetje, por në fakt po paguani vazhdimisht për "të gjithë paketën e kontekstit".

  • Raundi 1: Dërgo 10,000 Token, AI përgjigjet 1,000.

  • Raundi 2: Dërgo (10,000 + 1,000 + pyetje të reja), AI përgjigjet...

  • Raundi 10: Konteksti juaj mund të jetë zgjeruar tashmë në 200,000 Token.

Në këtë kohë, edhe nëse bëni vetëm një pyetje "më ndihmo të ndryshoj një emër variabël", do të konsumoni gjithashtu koston e 200,000 Token. Kjo është arsyeja pse ju mendoni se nuk keni bërë asgjë, por fatura juaj po rritet me shpejtësi.

Edhe më e keqe është: Modaliteti Agent do të "lexojë skedarët në mënyrë aktive". Ju thoni "më ndihmo të optimizoj modulin e përdoruesit", ai mund të skanojë së pari direktorinë përkatëse, pastaj të ndjekë varësitë, pastaj të ndjekë konfigurimin, pastaj të ndjekë testet... Ai nuk është dembel, ai po "përmbush detyrat sipas strategjisë së parazgjedhur", dhe strategjia e parazgjedhur është shpesh: lexo më shumë, provo më shumë, përsërit më shumë.

II. Dy lloje "dembelizmi" po shkatërrojnë aftësitë tuaja inxhinierike

Pas rishikimit të atyre "vëllezërve njëqind milionë" në zonën e komenteve, zbulova se rrënja e rritjes së madhe të Token nuk është vetëm problemi i mekanizmit të konsumit të AI, por edhe dembelizmi i njerëzve është i lidhur ngushtë.

Më poshtë janë dy lloje tipike të "dembelizmit të të menduarit".

Dembelizmi i parë: Lloji i dorëzimit

A keni edhe ju këtë mentalitet:

  • "Ky projekt i vjetër është shumë i çrregullt, jam shumë dembel për të parë logjikën, thjesht do t'ia hedh AI-së."

  • "Cursor ka dalë me modalitetin Agent, shumë mirë, le ta rregullojë vetë gabimin."

Kështu, ju i hidhni të gjithë dosjen src Agentit dhe jepni një udhëzim të paqartë: "Më ndihmo të optimizoj modulin e përdoruesit." Agjenti fillon të punojë:

  • Ai lexon 50 skedarë (konsumon 500,000).

  • Ai zbulon se citohet utils, dhe shkon të lexojë klasën e veglave (konsumon 200,000).

  • Ai përpiqet të modifikojë, shfaqet një gabim, lexon regjistrin e gabimeve (konsumon 100,000).

  • Ai përpiqet të rregullojë, shfaqet përsëri një gabim...

Ai po provon dhe gabon në mënyrë të çmendur, duke konsumuar Token në mënyrë të çmendur. Dhe ju? Ju jeni duke shfletuar telefonin tuaj, duke menduar se jeni shumë efikas. E vërteta është: ju po përdorni para për të shkëmbyer "efikasitet të rremë", duke prodhuar një grumbull kodi që nuk mund ta mirëmbani më vonë.

Në terma më profesionalë, ka dy humbje këtu:

  • Niveli i kostos: Hyrja e Token bëhet më e madhe, numri i përsëritjeve bëhet më i madh, tarifat shtohen në mënyrë lineare

  • Niveli inxhinierik: Ju humbni kontekstin dhe fuqinë vendimmarrëse, dhe në fund ju mbetet vetëm një sistem i pakontrollueshëm që "mund të funksionojë"

Dembelizmi i dytë: Lloji i gjithçkaje

Kur hasni një gabim, si ia hidhni AI-së? A e kopjoni drejtpërdrejt të gjithë konsolën e gabimeve me Ctrl+A, ose e lini AI-në të gjejë vetë me @Codebase?

Kjo quhet "gjithçka". Ju jeni dembel për të lokalizuar thelbin e problemit, dembel për të filtruar fragmentet kryesore të kodit. Ju i hidhni AI-së 99% të informacionit të pavlefshëm (zhurmës) dhe 1% të informacionit të vlefshëm (sinjalit).

AI është si një amplifikator.

  • Ju i jepni logjikë të qartë (sinjal), ai amplifikon mençurinë tuaj, Token përdoret pak dhe efekti është i mirë.

  • Ju i jepni konfuzion dhe paqartësi, ai amplifikon konfuzionin tuaj, Token rritet me shpejtësi dhe prodhon plehra.

III. Zgjidhje: Si të përdorni AI në mënyrë efikase dhe të ulni konsumin e Token

Për të mbrojtur portofolin tuaj, më e rëndësishmja është të mbroni kontrollin tuaj inxhinierik, ne duhet të ndryshojmë modalitetin e bashkëpunimit me AI.

1. Parimi i kontekstit minimal

Ky është parimi i parë i programimit AI. Gjithmonë jepni vetëm grupin minimal të kodit që korrespondon me problemin aktual që do të zgjidhet.

Në Cursor, përdorni mirë këta operatorë:

  • @File: Cito vetëm skedarët përkatës, jo të gjithë dosjen.

  • Ctrl+L** Zgjidh kodin**: Dërgo vetëm 50 rreshtat e kodit të zgjedhur nga kursori në Chat, jo të gjithë skedarin.

  • @Docs: Për bibliotekat e palëve të treta, cito dokumentacionin në vend që ta lësh atë të hamendësojë.

Kjo është SOP-ja e strukturuar dhe e ripërdorshme që përdor shpesh (nëse e bëni këtë, Token do të bjerë dukshëm):

Kjo fjali do të thotë: Kur bashkëpunoni me AI, duhet t'i kushtoni vëmendje efikasitetit dhe saktësisë. Praktikat specifike janë si më poshtë:

  • Së pari, sqaroni qëllimin: Tregojini AI-së problemin aktual dhe rezultatin e dëshiruar në mënyrë të përmbledhur dhe të qartë, mos e lini atë të hamendësojë vetë.

  • Thjeshtoni riprodhimin e problemit: Nëse mund të përdorni metodën më të thjeshtë për të riprodhuar problemin, mos përdorni metoda komplekse, ngjitni kodin më të vogël dhe kritik, mos grumbulloni një numër të madh përmbajtjesh të parëndësishme.

  • Siguroni informacionin minimal të nevojshëm: Jepni vetëm 1-3 skedarë përkatës, funksione kyçe dhe disa rreshta të parë të grumbullit të gabimeve, jo informacion të plotë.

  • Kërkoni kthimin e pikave të modifikimit: Lëreni AI-në t'ju tregojë vetëm se ku të ndryshoni, pse të ndryshoni, mos e lini atë të rishkruajë të gjithë kodin në një shkallë të gjerë.

  • Në fund, kontrolloni vetë: Bëni verifikimin më të thjeshtë për të siguruar që ndryshimet nuk ndikojnë në vende të tjera.

Me pak fjalë, përdorni informacionin më të vogël dhe më kritik për të lënë AI-në të bëjë gjëra dhe mbani kontrollin dhe gjykimin përfundimtar.

2. Gjithashtu më e rëndësishmja: Mendo së pari, pastaj Prompt, planifiko së pari, pastaj vepro

Përpara se të shtypni Enter, detyroni veten të ndaleni për 10 sekonda dhe bëni vetes tre pyetje:

  • Çfarë problemi po zgjidh? (Përcakto kufijtë)

  • Cilat module thelbësore përfshin ky problem? (Filtro kontekstin)

  • Nëse do ta shkruaja vetë, si do ta shkruaja? (Jep ide)

**Ju jeni 1, AI është 0 pas. **Nëse 1 nuk mund të qëndrojë, atëherë pavarësisht se sa 0 ka pas, është vetëm një konsum i pakuptimtë.

Disa fjalë nga zemra

Historia e "njëqind milionë Token në ditë" mund të mos ndodhë me të gjithë. Por sjellja e humbjes së Token është përjetuar nga pothuajse çdo programues që përdor programimin AI.

Edhe pse AI e ka bërë programimin më të thjeshtë, ende ka një prag. Njerëzit që e dinë vërtet se si ta përdorin do të jenë si një tigër me krahë.

Më parë, kodi i keq që shkruani do të "neveriste" vetëm kolegët tuaj. Tani, dembelizmi që bëni do të bëhet drejtpërdrejt një numër në faturë, duke ndëshkuar veten me kosto në rritje.Pra, mos u bëni "duar lart". Bëhuni një arkitekt AI me mendime të thella, shprehje të sakta, planifikim të parë dhe veprim më pas. Kjo është gjithashtu zëvendësueshmëria jonë më e madhe në këtë epokë.

Published in Technology

You Might Also Like

Claude Code terminali, më i lehtë se iTerm2, ka lindur!Technology

Claude Code terminali, më i lehtë se iTerm2, ka lindur!

# Claude Code terminali, më i lehtë se iTerm2, ka lindur! Përshëndetje të gjithëve, unë jam Guide. Sot do të flasim p...

2026 Top 10 AI Programim Mjetesh të Rekomanduara: Ndihmësit më të Mirë për Rritjen e Efikasitetit të ZhvillimitTechnology

2026 Top 10 AI Programim Mjetesh të Rekomanduara: Ndihmësit më të Mirë për Rritjen e Efikasitetit të Zhvillimit

# 2026 Top 10 AI Programim Mjetesh të Rekomanduara: Ndihmësit më të Mirë për Rritjen e Efikasitetit të Zhvillimit Me zh...

Si të përdorni GPT-5: udhëzuesi i plotë për gjenerimin e kodit dhe teksteve me cilësi të lartëTechnology

Si të përdorni GPT-5: udhëzuesi i plotë për gjenerimin e kodit dhe teksteve me cilësi të lartë

# Si të përdorni GPT-5: udhëzuesi i plotë për gjenerimin e kodit dhe teksteve me cilësi të lartë ## Hyrje Me përparimi...

Gemini AI vs ChatGPT:Cili është më i përshtatshëm për krijim dhe optimizimin e rrjedhave të punës? Krahasim i thellëTechnology

Gemini AI vs ChatGPT:Cili është më i përshtatshëm për krijim dhe optimizimin e rrjedhave të punës? Krahasim i thellë

# Gemini AI vs ChatGPT:Cili është më i përshtatshëm për krijim dhe optimizimin e rrjedhave të punës? Krahasim i thellë ...

2026年 Top 10 机器学习工具与资源推荐Technology

2026年 Top 10 机器学习工具与资源推荐

# 2026年 Top 10 机器学习工具与资源推荐 随着人工智能和数据科学的迅猛发展,机器学习(Machine Learning)已经成为现代技术应用的重要组成部分。本文将为您推荐2026年最值得关注的10个机器学习工具与资源,帮助您在...

2026年 Top 10 大模型(LLM)学习资源推荐Technology

2026年 Top 10 大模型(LLM)学习资源推荐

# 2026年 Top 10 大模型(LLM)学习资源推荐 Me zhvillimin e shpejtë të teknologjisë së inteligjencës artificiale (AI), veçanërisht në...