智谱GLM-5这次开源,让高级程序员也危险了...
Kalau begitu, saya harus membuka banyak jendela browser, menyalin dan menempel di jendela yang berbeda berkali-kali, lalu bergantian melihat hasilnya.
Meskipun bukan masalah besar, tapi sangat menjengkelkan jika dilakukan berkali-kali.
Saya berpikir, bisakah saya membuat plugin browser yang dapat mengirim pertanyaan yang sama ke halaman web keempat AI ini secara bersamaan dalam satu jendela, dan kemudian menerima balasan secara terpadu di plugin?
Tapi benda ini cukup merepotkan, karena struktur setiap situs web AI berbeda, dan ada berbagai mekanisme perlindungan, yang perlu menganalisis struktur DOM mereka.
Jadi, saya menyerahkan tugas yang rumit ini ke GLM-5.
Aktifkan Mode Rencana Claude Code terlebih dahulu untuk membuat rencana
Kemudian ia akan berinteraksi dengan saya dan menanyakan pendapat saya:
Rencana akhir yang diperoleh sangat rinci, sangat panjang, ada 633 baris..
Kemudian mulai dieksekusi sesuai rencana, tak disangka langkah pertama inisialisasi proyek memakan waktu lebih dari 50 menit..
Dalam proses ini, ia secara otomatis memanggil alat Playwright MCP, membuka browser sendiri, dan mengunjungi situs web beberapa AI tersebut.
Ia seperti programmer sungguhan, memeriksa elemen, menganalisis di mana kotak input berada, apa Class tombol kirim, bagaimana cara mendapatkan aliran teks yang dikembalikan... seluruh proses otomatis, saya tidak menulis satu baris kode pun.
PS: Lupa merekam layar, karena saya juga menjalankan tugas lain di jendela lain
Menunggu itu sepadan, plugin yang saya inginkan untuk mengajukan pertanyaan sekali dan dijawab oleh semua AI di seluruh jaringan, telah lahir.
Ini persis seperti yang saya butuhkan~
Selain itu, bukankah saya sebelumnya membuat platform pembuatan video pemasaran digital satu tombol?
Kemudian untuk mengejar pengalaman yang lebih baik, saya menyusun ulang frontend, penyusunan ulang ini tidak masalah, seluruh proyek dapat dikatakan berantakan: antarmuka frontend dan backend tidak cocok, beberapa logika lama backend tidak dapat berjalan di depan frontend baru, ada banyak Bug, sangat merepotkan untuk dikerjakan.
Kali ini, saya mengaktifkan mode rencana di Claude Code, dan kemudian langsung menyerahkan tugas mencari bug dan memperbaiki bug dari proses utama ke GLM-5
Pertama keluarkan rencana yang rinci:
Setelah memastikan rencana tidak ada kesalahan, saya membiarkannya mulai bekerja keras (dalam prosesnya menggunakan browser mcp untuk mengontrol).
Kecepatan eksekusinya tidak cepat.
Tapi bukan karena modelnya lambat, seringkali, saya melihat kecepatan konsumsi Token, terlihat dengan mata telanjang bahwa dalam satu detik langsung melonjak hingga ribuan.
Tetapi karena tugasnya terlalu rumit, ia perlu terus-menerus melakukan refleksi diri, memanggil alat, dan menjalankan pengujian.
Ada juga beberapa waktu yang dihabiskan untuk mengunduh dependensi, atau menjalankan perintah.
Tugas perbaikan ini juga memakan waktu lebih dari 40 menit.
Mungkin beberapa teman akan berkata, 40 menit? Saya sudah selesai menulis.
emmm, tapi dalam 40 menit ini, saya membuka rekaman layar, menonton video, bahkan mengajak anjing jalan-jalan.
Dan ia dengan penuh perhatian membantu saya bekerja, dan melakukan pekerjaan mencari Bug dan menyusun ulang yang paling membuat pusing.
Jangan lihat eksekusinya lambat, tetapi efek akhir yang diperoleh sangat signifikan.
Begitu saya menjalankannya, wah, masalahnya pada dasarnya sudah teratasi.
Silakan lihat VCR:
Ada juga beberapa efek yang saya temukan Bug kecil saat menguji sendiri, dan kemudian membiarkannya memperbaiki dan mengoptimalkan.
Tetapi dalam memperbaiki Bug dan mengoptimalkan fungsi, saya benar-benar merasa tenang untuk menyerahkannya kepadanya.
Dulu menggunakan AI lain untuk memperbaiki Bug, seringkali khawatir Bug semakin banyak diperbaiki, proyek semakin berantakan, tipikal membongkar tembok timur untuk menambal tembok barat..
Sebelumnya untuk menghindari masalah ini, harus menggunakan berbagai cara rekayasa untuk membatasi AI.
Misalnya setiap kali modifikasi menekankan cakupan, atau menulis ini ke dalam aturan, atau setiap kali hanya memperbaiki satu bug, setiap kali selesai dimodifikasi, harus menguji fungsi lain... pokoknya sangat merepotkan.
Tetapi menggunakan GLM-5 untuk memodifikasi Bug, pengalamannya benar-benar berubah.
Saya tidak pernah hanya perlu menggambarkan situasi saat ini, melemparkan log kesalahan kepadanya, dan memberi tahu efek apa yang saya harapkan.
Ia hampir selalu dapat memperbaiki dengan sukses sekali, dan sama sekali tidak akan memengaruhi fungsi lain.
Bahkan, dalam satu percakapan, saya langsung melemparkan empat Bug berbeda yang ditemukan dalam seluruh proses kepadanya, ia juga dapat memperbaikinya satu per satu dengan jelas.
Perasaan stabil ini benar-benar sangat nyaman.
Sekarang saya dapat dengan tenang menyerahkan GLM-5 untuk membantu saya menyelesaikan tugas pengembangan yang rumit, pada dasarnya tidak akan ada kesalahan.
Bahkan jika kadang-kadang ada masalah, paling-paling jalankan perintah rollback di Claude Code, kembali dan mulai dari awal.
Setelah seluruh proyek dioptimalkan dengan GLM-5, semua proses pada dasarnya sudah selesai.
**Saya juga berencana untuk segera membuka sumber proyek ini (masih perlu mengekstrak berbagai API model dan mengubahnya menjadi konfigurasi).** **"Akhir Kata"** Setelah mencoba GLM-5, kesan terbesar saya adalah: **AI buatan dalam negeri benar-benar telah bangkit.** Beberapa hari yang lalu, Seedance 2.0 dari ByteDance dirilis, membuktikan bahwa model buatan dalam negeri Tiongkok telah mencapai tingkat pertama dunia di bidang pembuatan video, secara langsung melampaui Sora2 dan Veo3.1. Dan perilisan GLM-5 dari Zhipu kali ini, telah memberikan jawaban yang melebihi ekspektasi di jalur AI Coding yang sangat penting. Dahulu kita selalu mengatakan bahwa model buatan dalam negeri masih memiliki kesenjangan dengan GPT, Claude Opus, dan Gemini dalam penalaran logis dan penulisan kode. Namun hari ini, GLM-5 memberi tahu kita dengan kinerja yang nyata: kesenjangan ini sedang dihilangkan. GLM-5 juga bukan mainan yang hanya bisa digunakan untuk membuat Demo, tetapi merupakan alat produktivitas yang benar-benar dapat membantu Anda bekerja, membantu Anda membangun sistem, membantu Anda memecahkan tugas-tugas panjang dan masalah yang kompleks. **Yang paling penting, ini adalah sumber terbuka.** Ini berarti bahwa setiap pengembang, setiap perusahaan, dapat memiliki arsitek AI kelas atas dengan biaya yang lebih rendah. Dan saat ini, Coding Plan GLM telah terjual habis, dan pihak berwenang telah mengeluarkan pengumuman yang mengatakan bahwa mereka sedang memperluas kapasitas secara mendesak, dan yang terpenting, kali ini yang terhubung adalah kluster sepuluh ribu kartu chip buatan dalam negeri. Namun karena peningkatan investasi dalam daya komputasi, harga telah meningkat, untungnya saya sebelumnya mendapatkan paket Max. Di sini juga dapat dilihat bahwa dari chip hingga model, dari daya komputasi dasar hingga aplikasi lapisan atas, kita sedang membangun tumpukan teknologi AI kelas dunia yang sepenuhnya milik kita sendiri. Tahun 2026 ditakdirkan menjadi tahun ledakan aplikasi AI, dan juga tahun yang lebih gila. Jika Anda juga ingin merasakan perasaan memiliki arsitek AI kelas atas ini, segera coba GLM-5.Prasyaratnya adalah kamu harus mendapatkan paket Max, haha.




