Ένα Εκατομμύριο Token Καίγονται σε Μια Μέρα; Ο Λογαριασμός AI του Προγραμματιστή, Τιμωρεί τους «Τεμπέληδες»
Στόχος αναγνώστες: Προγραμματιστές που χρησιμοποιούν εργαλεία προγραμματισμού AI (όπως Cursor, Windsurf, trae...) και τεχνικοί διαχειριστές που δεν έχουν επίγνωση του κόστους της AI.
Βασική άποψη: Το Token δεν είναι απλώς μια απλή μονάδα χρέωσης, αλλά ένας «πόρος προσοχής» και ένα «νόμισμα υπολογιστικής ισχύος». Η κατάχρηση της λειτουργίας Agent και η παραμέληση της διαχείρισης περιβάλλοντος, στην πραγματικότητα, καλύπτουν τη στρατηγική τεμπελιά (μη σκέψη) με την τακτική επιμέλεια (αφήνοντας την AI να κάνει ό,τι θέλει).
Οι «Δαπάνες AI» σας Μπορεί να Είναι Υψηλότερες από τον Μισθό σας
Πριν από λίγες ημέρες, έλεγξα τον λογαριασμό μου Token. Όταν είδα αυτόν τον αριθμό, εξεπλάγην λίγο: 10 εκατομμύρια Token. Σημειώστε ότι αυτή δεν είναι η χρήση ενός μήνα, είναι μία ημέρα.
Νόμιζα ότι αυτό ήταν εξωφρενικό. Αργότερα δημοσίευσα ένα σύντομο βίντεο σχετικά με τον υπολογισμό Token.
Ως αποτέλεσμα, η περιοχή σχολίων με έκανε να δω τι σημαίνει «ο ουρανός έχει ουρανό».
Η παρακάτω εικόνα είναι ένα στιγμιότυπο της ημερήσιας κατανάλωσης δύο εκατομμυρίων Token από τον χρήστη του Διαδικτύου «Καθημερινή ζωή του Old K»:

Στην αρχή νόμιζα ότι μπορεί να ήταν μια μεμονωμένη περίπτωση, αλλά όταν πολλοί χρήστες του Διαδικτύου άφησαν σχόλια λέγοντας ότι κατανάλωναν 100 εκατομμύρια την ημέρα, κατάλαβα ότι αυτό είναι ένα πολύ κοινό φαινόμενο.
Τι είναι 100 εκατομμύρια Token; Εάν υπολογιστεί σύμφωνα με το κοινό επίπεδο χρέωσης «ορισμένων κύριων εμπορικών μοντέλων» (η είσοδος/έξοδος χρεώνεται ξεχωριστά και αθροιστικά εκτιμάται χονδρικά σε 10 $ ΗΠΑ / εκατομμύριο Token), τότε 1000 $ ΗΠΑ καίγονται αυτήν την ημέρα. 7000 γιουάν RMB καίγονται σε μια μέρα. Ο μηνιαίος μισθός πολλών αρχάριων προγραμματιστών μπορεί να μην είναι αρκετός για να «σκεφτεί» η AI αυτήν την ημέρα.
(Σημείωση: Η διαφορά τιμής μεταξύ διαφορετικών μοντέλων/προμηθευτών είναι μεγάλη και η τιμή μονάδας εισόδου και εξόδου είναι επίσης συχνά διαφορετική. Ο σκοπός εδώ δεν είναι να υπολογιστεί με ακρίβεια μέχρι το δεύτερο δεκαδικό ψηφίο, αλλά να δημιουργηθεί πρώτα μια «αίσθηση κλίμακας».)
Εάν θέλετε να επαναλάβετε τον υπολογισμό μόνοι σας, υπάρχει γενικά αυτός ο τύπος (αγνοώντας ειδικούς κανόνες όπως η προσωρινή αποθήκευση/εκπτώσεις):
Κόστος ≈ (Είσοδος Token / 1.000.000) × Τιμή μονάδας_in + (Έξοδος Token / 1.000.000) × Τιμή μονάδας_out
Αυτό είναι πολύ αντιφατικό. Πάντα πιστεύουμε ότι η AI είναι φθηνή, η OpenAI μάλιστα πρόκειται να μειώσει τις τιμές. Αλλά γιατί στην πραγματική μηχανική, η κατανάλωση Token θα εκραγεί εκθετικά;
Σήμερα, θα σας οδηγήσω να αποσυναρμολογήσετε σε βάθος τη λογική πίσω από αυτήν την «μαύρη τρύπα Token» και πώς θα πρέπει να σταματήσουμε τις απώλειες.
1. Γιατί το Token θα «εκραγεί εκθετικά»;
Πολλοί αδελφοί δεν έχουν καμία απολύτως ιδέα για το μέγεθος του Token. Νιώθουν: «Αχ, δεν είναι απλώς η αποστολή μερικών τμημάτων κώδικα; Πόσο μπορεί να είναι;»
1. Κάντε έναν σαφή λογαριασμό
Ας δημιουργήσουμε πρώτα μια ποσοτική αντίληψη που είναι αρκετά χρήσιμη στη μηχανική. Ας το πούμε λίγο πιο ξεκάθαρα: Το Token δεν είναι αριθμός λέξεων, ούτε αριθμός χαρακτήρων. Είναι ένα «κωδικοποιημένο τμήμα» μετά την κατάτμηση του κειμένου από το μοντέλο. Διαφορετικά μοντέλα χρησιμοποιούν διαφορετικά tokenizer, επομένως μπορεί να δοθεί μόνο ένα εύρος, όχι μια σταθερά που είναι «κατάλληλη για όλους».
Αυτούς τους αριθμούς, απλώς θεωρήστε τους ως «κλίμακες εκτίμησης» (ο σκοπός είναι να κρίνετε το μέγεθος, να εκτιμήσετε το κόστος και να λάβετε αποφάσεις διακοπής απωλειών):
-
1 κινεζικός χαρακτήρας: Συνήθως 1–2 Token (οι χαρακτήρες υψηλής συχνότητας είναι πιο κοντά στο 1, οι σπάνιοι χαρακτήρες/συνδυασμοί είναι πιο πιθανό να είναι 2–3)
-
1 αγγλική λέξη: Συνήθως περίπου 1,2–1,5 Token (η χονδρική εκτίμηση μπορεί επίσης να χρησιμοποιήσει 1,3)
-
1 γραμμή κώδικα ≈ 10–50 Token (συμπεριλαμβανομένης της εσοχής, των σχολίων, των δηλώσεων τύπου)
-
Απλή επιχειρηματική λογική ≈ 12–20 Token
-
Με σχολιασμούς τύπου, interface, JSDoc, εσοχή 4 διαστημάτων ≈ 20–35 Token
-
Με μεγάλο αριθμό import / διακοσμητών / σχολίων ≈ 30–50+ Token
-
1 αρχείο πηγής (400–600 γραμμές, σύγχρονο έργο TS/Java) ≈ 4.000–24.000 Token είναι πολύ κοινό (διάμεσος ≈ 12.000–18.000)
-
1 μεσαίο έργο (100–200 αρχεία πηγής, μόνο
src/, χωρίςnode_modules// δημιουργημένο κώδικα) -
Η «ανάγνωση» του βασικού πηγαίου κώδικα «μία φορά» συχνά ξεκινά με εκατομμύρια Token
-
Εάν οι δοκιμές, οι διαμορφώσεις, τα σενάρια, οι δηλώσεις εξάρτησης και τα αρχεία καταγραφής στοιβάζονται μαζί, δεν είναι ασυνήθιστο να υπάρχουν δεκάδες εκατομμύρια Token
Τα σημερινά έργα frontend είναι όλα TypeScript, γεμάτα σύνθετους ορισμούς Interface. Ή Java, με δεκάδες γραμμές Import σε κάθε στροφή. Αυτός ο «τυποποιημένος κώδικας» είναι στην πραγματικότητα δολοφόνος Token. Ένα μεσαίο έργο, εάν έχει 100 αρχεία, μόνο το να αφήσετε την AI να «διαβάσει τον κώδικα μία φορά» είναι πολύ πιθανό να σκοτώσει άμεσα 1 εκατομμύριο Token.
2. Το φαινόμενο «χιονοστιβάδας» του token
Η πιο τρομακτική κατανάλωση Token δεν είναι μια εφάπαξ συνομιλία, αλλά η συσσώρευση περιβάλλοντος σε πολλαπλές συνομιλίες.
Ο μηχανισμός του LLM είναι χωρίς κατάσταση. Για να θυμάται η AI τι είπατε στην τελευταία πρόταση, το σύστημα συνήθως συσκευάζει μαζί «προτροπές συστήματος + ιστορικές συνομιλίες + αποσπάσματα αρχείων/κώδικα που αναφέρατε + έξοδο κλήσης εργαλείου (όπως αποτελέσματα αναζήτησης, αρχεία καταγραφής σφαλμάτων)» και τα στέλνει στο μοντέλο. Νομίζετε ότι ρωτήσατε μόνο μία πρόταση, αλλά στην πραγματικότητα πληρώνετε επανειλημμένα για «ολόκληρο το πακέτο περιβάλλοντος».
-
Γύρος 1: Αποστολή 10.000 Token, η AI απαντά 1.000.
-
Γύρος 2: Αποστολή (10.000 + 1.000 + νέα ερώτηση), η AI απαντά...
-
Γύρος 10: Το περιβάλλον σας μπορεί να έχει φτάσει τα 200.000 Token.
Αυτή τη στιγμή, ακόμα κι αν ρωτήσετε απλώς «βοηθήστε με να αλλάξω ένα όνομα μεταβλητής», το κόστος είναι 200.000 Token. Γι' αυτό νιώθετε ότι δεν έχετε κάνει τίποτα, αλλά ο λογαριασμός σας εκτοξεύεται στα ύψη.
Το χειρότερο είναι: Η λειτουργία Agent θα «διαβάσει ενεργά αρχεία». Μια πρόταση «βοηθήστε με να βελτιστοποιήσω τη λειτουργική μονάδα χρήστη», μπορεί να σαρώσει πρώτα τον σχετικό κατάλογο, στη συνέχεια να εντοπίσει τις εξαρτήσεις, στη συνέχεια να εντοπίσει τις διαμορφώσεις και στη συνέχεια να εντοπίσει τις δοκιμές... Δεν τεμπελιάζει, «εκτελεί ευσυνείδητα την προεπιλεγμένη στρατηγική» και η προεπιλεγμένη στρατηγική είναι συχνά: διαβάστε περισσότερα, δοκιμάστε περισσότερα, επαναλάβετε περισσότερα.
2. Δύο Τύποι «Τεμπελιάς» Καταστρέφουν τις Μηχανικές σας Ικανότητες
Μετά την ανασκόπηση των «αδελφών των 100 εκατομμυρίων» στην περιοχή σχολίων, διαπίστωσα ότι η ρίζα της εκτόξευσης Token δεν είναι μόνο το πρόβλημα του μηχανισμού κατανάλωσης της AI, αλλά και η τεμπελιά των ανθρώπων.
Υπάρχουν δύο τυπικοί τύποι «διανοητικής τεμπελιάς».
Τεμπελιά 1: Τύπος αφεντικού που τα παρατάει
Έχετε και εσείς αυτή τη νοοτροπία;
-
«Αυτό το παλιό έργο είναι πολύ ακατάστατο, βαριέμαι να δω τη λογική, ας το πετάξω απευθείας στην AI.»
-
«Το Cursor κυκλοφόρησε τη λειτουργία Agent, υπέροχα, ας το αφήσουμε να διορθώσει τα σφάλματα μόνο του.»
Έτσι, ρίχνετε ολόκληρο τον φάκελο src στον Agent και δίνετε μια ασαφή οδηγία: «Βοηθήστε με να βελτιστοποιήσω τη λειτουργική μονάδα χρήστη.» Ο Agent αρχίζει να εργάζεται:
-
Διάβασε 50 αρχεία (κατανάλωσε 500.000).
-
Βρήκε ότι αναφέρεται στο
utilsκαι πήγε να διαβάσει τις βοηθητικές κλάσεις (κατανάλωσε 200.000). -
Προσπάθησε να τροποποιήσει, έκανε λάθος, διάβασε το αρχείο καταγραφής σφαλμάτων (κατανάλωσε 100.000).
-
Προσπάθησε να διορθώσει, έκανε ξανά λάθος...
Προσπαθεί και κάνει λάθη τρελά, καταναλώνει Token τρελά. Και εσείς; Κάνετε κύλιση στο τηλέφωνό σας, νιώθοντας ότι είστε πολύ αποτελεσματικοί. Η αλήθεια είναι: ανταλλάσσετε «ψευδο-αποτελεσματικότητα» με χρήματα και παράγετε έναν σωρό κώδικα που δεν μπορείτε να συντηρήσετε αργότερα.
Πιο επαγγελματικά, υπάρχουν δύο επίπεδα απωλειών εδώ:
-
Επίπεδο κόστους: Η είσοδος Token γίνεται μεγαλύτερη, ο αριθμός των επαναλήψεων αυξάνεται και τα τέλη προστίθενται γραμμικά
-
Επίπεδο μηχανικής: Χάνετε το περιβάλλον και την εξουσία λήψης αποφάσεων και στο τέλος μένει μόνο ένα ανεξέλεγκτο σύστημα που «μπορεί να τρέξει»
Τεμπελιά 2: Τύπος που τα ρίχνει όλα μαζί
Όταν αντιμετωπίζετε ένα σφάλμα, πώς το ρίχνετε στην AI; Αντιγράφετε απευθείας ολόκληρη την κονσόλα σφαλμάτων με Ctrl+A ή αφήνετε την AI να το βρει μόνη της με @Codebase;
Αυτό ονομάζεται «τα ρίχνετε όλα μαζί». Βαριέστε να εντοπίσετε τον πυρήνα του προβλήματος, βαριέστε να φιλτράρετε τα βασικά αποσπάσματα κώδικα. Ρίχνετε στην AI το 99% των άκυρων πληροφοριών (θόρυβος) και το 1% των έγκυρων πληροφοριών (σήμα).
Η AI είναι σαν ένας ενισχυτής.
-
Της δίνετε σαφή λογική (σήμα), ενισχύει τη σοφία σας, χρησιμοποιούνται λιγότερα Token και το αποτέλεσμα είναι καλό.
-
Της δίνετε σύγχυση και ασάφεια, ενισχύει τη σύγχυσή σας, τα Token εκτοξεύονται στα ύψη και παράγονται σκουπίδια.
3. Λύση: Πώς να χρησιμοποιήσετε την AI αποτελεσματικά και να μειώσετε την κατανάλωση Token
Για να προστατεύσετε το πορτοφόλι σας, το πιο σημαντικό είναι να προστατεύσετε την εξουσία ελέγχου της μηχανικής σας. Πρέπει να αλλάξουμε το μοντέλο συνεργασίας με την AI.
1. Αρχή του ελάχιστου περιβάλλοντος
Αυτή είναι η πρώτη αρχή του προγραμματισμού AI. Να δίνετε πάντα στην AI το ελάχιστο σύνολο κώδικα που αντιστοιχεί στο τρέχον πρόβλημα.
Στο Cursor, χρησιμοποιήστε καλά αυτούς τους τελεστές:
-
@File: Αναφέρετε μόνο τα σχετικά αρχεία, όχι ολόκληρους τους φακέλους. -
Ctrl+L** Επιλέξτε κώδικα**: Στείλτε μόνο τις 50 γραμμές κώδικα που είναι επιλεγμένες από τον κέρσορα στο Chat, όχι ολόκληρο το αρχείο. -
@Docs: Για βιβλιοθήκες τρίτων, αναφέρετε την τεκμηρίωση αντί να την αφήσετε να μαντέψει.
Αυτό χρησιμοποιώ συχνά, μια δομημένη, επαναχρησιμοποιήσιμη SOP (κάντε το και τα Token θα πέσουν ορατά):
Αυτό το απόσπασμα σημαίνει: Όταν συνεργάζεστε με την AI, πρέπει να προσέχετε την αποτελεσματικότητα και την ακρίβεια. Οι συγκεκριμένες πρακτικές είναι οι εξής:
-
Πρώτα καθορίστε τον στόχο: Πείτε στην AI το τρέχον πρόβλημα και το επιθυμητό αποτέλεσμα συνοπτικά και συνοπτικά, μην την αφήσετε να μαντέψει μόνη της.
-
Βελτιώστε την αναπαραγωγή προβλημάτων: Εάν μπορείτε να αναπαράγετε το πρόβλημα με τον απλούστερο τρόπο, μην χρησιμοποιείτε περίπλοκες μεθόδους, επικολλήστε τον ελάχιστο και κρίσιμο κώδικα, μην στοιβάζετε πολλές άσχετες πληροφορίες.
-
Παρέχετε τις ελάχιστες απαραίτητες πληροφορίες: Δώστε μόνο 1-3 σχετικά αρχεία, βασικές συναρτήσεις και τις πρώτες γραμμές της στοίβας σφαλμάτων, δεν χρειάζονται πλήρεις πληροφορίες.
-
Απαιτήστε την επιστροφή σημείων τροποποίησης: Αφήστε την AI να σας πει μόνο πού να αλλάξετε και γιατί να αλλάξετε, μην την αφήσετε να ξαναγράψει ολόκληρο τον κώδικα σε μεγάλο βαθμό.
-
Τέλος, ελέγξτε μόνοι σας: Κάντε την πιο συνοπτική επαλήθευση για να βεβαιωθείτε ότι οι αλλαγές δεν επηρεάζουν άλλα μέρη.
Εν ολίγοις, χρησιμοποιήστε τις λιγότερες και πιο κρίσιμες πληροφορίες για να κάνετε την AI να κάνει πράγματα και διατηρήστε τον τελικό έλεγχο και την κρίση.
2. Επίσης το πιο σημαντικό: Σκεφτείτε πρώτα, μετά Προτρέψτε, Σχεδιάστε πρώτα, μετά Δράστε
Πριν πατήσετε το enter, αναγκάστε τον εαυτό σας να σταματήσει για 10 δευτερόλεπτα και ρωτήστε τον εαυτό σας τρεις ερωτήσεις:
-
Τι πρόβλημα λύνω; (Καθορίστε τα όρια)
-
Ποιες βασικές λειτουργικές μονάδες εμπλέκονται σε αυτό το πρόβλημα; (Φιλτράρετε το περιβάλλον)
-
Αν το έγραφα μόνος μου, πώς θα το έγραφα; (Παρέχετε ιδέες)
Είστε το 1, η AI είναι το 0 πίσω. Εάν το 1 δεν μπορεί να σταθεί, όσο περισσότερα 0 υπάρχουν πίσω, τόσο πιο άσκοπη είναι η κατανάλωση.
Μερικά Λόγια από την Καρδιά
Η ιστορία του «Ένα Εκατομμύριο Token την Ημέρα» μπορεί να μην συμβεί σε όλους. Αλλά η σπατάλη Token είναι μια συμπεριφορά που σχεδόν κάθε προγραμματιστής που χρησιμοποιεί προγραμματισμό AI θα έχει βιώσει.
Αν και η AI έχει κάνει τον προγραμματισμό ευκολότερο, εξακολουθούν να υπάρχουν όρια. Οι άνθρωποι που ξέρουν πραγματικά πώς να το χρησιμοποιήσουν θα έχουν φτερά στα πόδια τους.
Στο παρελθόν, ο κακός κώδικας που γράφατε θα «αηδίαζε» μόνο τους συναδέλφους σας. Τώρα, η τεμπελιά που κλέβετε θα μετατραπεί απευθείας σε αριθμό στον λογαριασμό, τιμωρώντας τον εαυτό σας με αυξανόμενο κόστος.Επομένως, μην γίνετε "αφηρημένος ιδιοκτήτης". Γίνετε ένας αρχιτέκτονας AI με βαθιά σκέψη, ακριβή έκφραση, και σχεδιασμό πριν από τη δράση. Αυτή είναι επίσης η μεγαλύτερη αναντικατάστατη αξία μας σε αυτή την εποχή.




