智谱GLM-5这次开源,让高级程序员也危险了...

2/13/2026
6 min read
**真的,2026年的AI比25年疯太多了。** 最近我这个一天16个小时泡在AI里面的人,都有点追不上AI进化的速度。感觉每天一睁眼,世界就变了个样。 这不,昨天深夜,智谱又放了个大招,直接**开源**了他们目前**最强**的旗舰模型:**GLM-5**。 在全球权威的Artificial Analysis榜单里面,**GLM-5超越Gemini干到了全球第四、开源第一!** ![图片](/uploads/wechat-1770959913536-oik3pqi.png) 还真是如我所料啊,记得上次GLM-4.7发布的时候,我就在文章里跟兄弟们预测了一波:盲猜GLM-4.8或者GLM-5将在春节前夕发布,没想到真来了,哈哈😄 而且这次的版本号终于不像之前那样4.5、4.6、4.7这样挤牙膏式的更新了,这次直接干到了5.0。 这就说明,不是什么小修小补,是底座能力的大跨越。 **先给大家介绍一下,这次GLM-5到底更新了啥:** 简单来说,之前的模型,大家普遍都在卷Vibe Coding,就是所谓的一句话生成,看谁生成的网页特效更炫酷,看谁能一句话搓个炫酷的游戏。 但GLM-5这次不跟你卷这个了(终于!),它把大模型的能力从写代码,提升到能构建系统。 什么意思呢?它的重心不再是写漂亮的前端页面,而是进化成了一个能干脏活、累活、做长任务的系统架构师。 强调的是Agentic Engineering,也就是智能体工程能力。 我看了下官方的数据,参数规模从**355B干到了744B(激活40)**,预训练数据从**23T提升到了28.5T**。 在SWE-bench-Verified这个公认的编程基准测试里,得分77.8,直接把Gemini 3 Pro甩在了身后,**和目前公认的最强闭源模型Claude Opus 4.5可以说是不相上下。** ![](/uploads/wechat-1770959913632-3di12gf.png) **目前在z.ai上面就可以免费使用:** ![](/uploads/wechat-1770959913681-xl76jd1.png) **开源地址:** GitHub:https://github.com/zai-org/GLM-5 Hugging Face:https://huggingface.co/zai-org/GLM-5 ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5 其实在前几天,**X上就突然冒出来一个叫Pony的神秘模型。** 当时很多朋友都在猜,这个Pony到底是哪路神仙?众说纷纭 其实代号Pony的模型就是GLM-5,至于为什么叫Pony呢,大概是因为马年快到了吧🤔。 我当时也第一时间从OpenRouter把Pony接入到Claude Code里试用了一下,说实话,真滴很强(在X上热度也是非常高)。 **只花了7分钟,一次性生成了一个API中转站!** 虽然还是MVP Demo,但是页面功能已经很齐全了,而且包含后端逻辑,以及数据库,数据是动态的,麻雀虽小五脏俱全。 ![](/uploads/wechat-1770959913845-kkpqw2d.png)在深度体验后,我发现GLM-5在制定计划的时候,那种味道,太像Claude Opus了。 熟悉Claude Opus的朋友都知道,在干活之前,可以用它会给你列一个非常详细、逻辑严密的计划。 GLM-5现在也有了这个能力。 比如,我有一个一直想做,但是因为懒一直没动手的事儿。 我手头有Gemini、ChatGPT、Kimi、智谱等等一堆会员账号。 平时写文章或者查资料的时候,有些问题我经常会想听听多个AI的意见,综合对比一下。

Kalau begitu, saya harus membuka banyak jendela browser, menyalin dan menempel di jendela yang berbeda berkali-kali, lalu bergantian melihat hasilnya.

Meskipun bukan masalah besar, tapi sangat menjengkelkan jika dilakukan berkali-kali.

Saya berpikir, bisakah saya membuat plugin browser yang dapat mengirim pertanyaan yang sama ke halaman web keempat AI ini secara bersamaan dalam satu jendela, dan kemudian menerima balasan secara terpadu di plugin?

Tapi benda ini cukup merepotkan, karena struktur setiap situs web AI berbeda, dan ada berbagai mekanisme perlindungan, yang perlu menganalisis struktur DOM mereka.

Jadi, saya menyerahkan tugas yang rumit ini ke GLM-5.

Aktifkan Mode Rencana Claude Code terlebih dahulu untuk membuat rencana

Kemudian ia akan berinteraksi dengan saya dan menanyakan pendapat saya:

Rencana akhir yang diperoleh sangat rinci, sangat panjang, ada 633 baris..

Kemudian mulai dieksekusi sesuai rencana, tak disangka langkah pertama inisialisasi proyek memakan waktu lebih dari 50 menit..

Dalam proses ini, ia secara otomatis memanggil alat Playwright MCP, membuka browser sendiri, dan mengunjungi situs web beberapa AI tersebut.

Ia seperti programmer sungguhan, memeriksa elemen, menganalisis di mana kotak input berada, apa Class tombol kirim, bagaimana cara mendapatkan aliran teks yang dikembalikan... seluruh proses otomatis, saya tidak menulis satu baris kode pun.

PS: Lupa merekam layar, karena saya juga menjalankan tugas lain di jendela lain

![](/uploads/wechat-1770959914158-lxid9zm.jpeg)Menunggu itu sepadan, plugin yang saya inginkan untuk mengajukan pertanyaan sekali dan dijawab oleh semua AI di seluruh jaringan, telah lahir.

Ini persis seperti yang saya butuhkan~

Selain itu, bukankah saya sebelumnya membuat platform pembuatan video pemasaran digital satu tombol?

Kemudian untuk mengejar pengalaman yang lebih baik, saya menyusun ulang frontend, penyusunan ulang ini tidak masalah, seluruh proyek dapat dikatakan berantakan: antarmuka frontend dan backend tidak cocok, beberapa logika lama backend tidak dapat berjalan di depan frontend baru, ada banyak Bug, sangat merepotkan untuk dikerjakan.

Kali ini, saya mengaktifkan mode rencana di Claude Code, dan kemudian langsung menyerahkan tugas mencari bug dan memperbaiki bug dari proses utama ke GLM-5

Pertama keluarkan rencana yang rinci:

Setelah memastikan rencana tidak ada kesalahan, saya membiarkannya mulai bekerja keras (dalam prosesnya menggunakan browser mcp untuk mengontrol).

Kecepatan eksekusinya tidak cepat.

Tapi bukan karena modelnya lambat, seringkali, saya melihat kecepatan konsumsi Token, terlihat dengan mata telanjang bahwa dalam satu detik langsung melonjak hingga ribuan.

Tetapi karena tugasnya terlalu rumit, ia perlu terus-menerus melakukan refleksi diri, memanggil alat, dan menjalankan pengujian.

Ada juga beberapa waktu yang dihabiskan untuk mengunduh dependensi, atau menjalankan perintah.

Tugas perbaikan ini juga memakan waktu lebih dari 40 menit.

Mungkin beberapa teman akan berkata, 40 menit? Saya sudah selesai menulis.

emmm, tapi dalam 40 menit ini, saya membuka rekaman layar, menonton video, bahkan mengajak anjing jalan-jalan.

Dan ia dengan penuh perhatian membantu saya bekerja, dan melakukan pekerjaan mencari Bug dan menyusun ulang yang paling membuat pusing.

Jangan lihat eksekusinya lambat, tetapi efek akhir yang diperoleh sangat signifikan.

Begitu saya menjalankannya, wah, masalahnya pada dasarnya sudah teratasi.

Silakan lihat VCR:

Ada juga beberapa efek yang saya temukan Bug kecil saat menguji sendiri, dan kemudian membiarkannya memperbaiki dan mengoptimalkan.

Tetapi dalam memperbaiki Bug dan mengoptimalkan fungsi, saya benar-benar merasa tenang untuk menyerahkannya kepadanya.

Dulu menggunakan AI lain untuk memperbaiki Bug, seringkali khawatir Bug semakin banyak diperbaiki, proyek semakin berantakan, tipikal membongkar tembok timur untuk menambal tembok barat..

Sebelumnya untuk menghindari masalah ini, harus menggunakan berbagai cara rekayasa untuk membatasi AI.

Misalnya setiap kali modifikasi menekankan cakupan, atau menulis ini ke dalam aturan, atau setiap kali hanya memperbaiki satu bug, setiap kali selesai dimodifikasi, harus menguji fungsi lain... pokoknya sangat merepotkan.

Tetapi menggunakan GLM-5 untuk memodifikasi Bug, pengalamannya benar-benar berubah.

Saya tidak pernah hanya perlu menggambarkan situasi saat ini, melemparkan log kesalahan kepadanya, dan memberi tahu efek apa yang saya harapkan.

Ia hampir selalu dapat memperbaiki dengan sukses sekali, dan sama sekali tidak akan memengaruhi fungsi lain.

Bahkan, dalam satu percakapan, saya langsung melemparkan empat Bug berbeda yang ditemukan dalam seluruh proses kepadanya, ia juga dapat memperbaikinya satu per satu dengan jelas.

Perasaan stabil ini benar-benar sangat nyaman.

Sekarang saya dapat dengan tenang menyerahkan GLM-5 untuk membantu saya menyelesaikan tugas pengembangan yang rumit, pada dasarnya tidak akan ada kesalahan.

Bahkan jika kadang-kadang ada masalah, paling-paling jalankan perintah rollback di Claude Code, kembali dan mulai dari awal.

Setelah seluruh proyek dioptimalkan dengan GLM-5, semua proses pada dasarnya sudah selesai.

**Saya juga berencana untuk segera membuka sumber proyek ini (masih perlu mengekstrak berbagai API model dan mengubahnya menjadi konfigurasi).** **"Akhir Kata"** Setelah mencoba GLM-5, kesan terbesar saya adalah: **AI buatan dalam negeri benar-benar telah bangkit.** Beberapa hari yang lalu, Seedance 2.0 dari ByteDance dirilis, membuktikan bahwa model buatan dalam negeri Tiongkok telah mencapai tingkat pertama dunia di bidang pembuatan video, secara langsung melampaui Sora2 dan Veo3.1. Dan perilisan GLM-5 dari Zhipu kali ini, telah memberikan jawaban yang melebihi ekspektasi di jalur AI Coding yang sangat penting. Dahulu kita selalu mengatakan bahwa model buatan dalam negeri masih memiliki kesenjangan dengan GPT, Claude Opus, dan Gemini dalam penalaran logis dan penulisan kode. Namun hari ini, GLM-5 memberi tahu kita dengan kinerja yang nyata: kesenjangan ini sedang dihilangkan. GLM-5 juga bukan mainan yang hanya bisa digunakan untuk membuat Demo, tetapi merupakan alat produktivitas yang benar-benar dapat membantu Anda bekerja, membantu Anda membangun sistem, membantu Anda memecahkan tugas-tugas panjang dan masalah yang kompleks. **Yang paling penting, ini adalah sumber terbuka.** Ini berarti bahwa setiap pengembang, setiap perusahaan, dapat memiliki arsitek AI kelas atas dengan biaya yang lebih rendah. Dan saat ini, Coding Plan GLM telah terjual habis, dan pihak berwenang telah mengeluarkan pengumuman yang mengatakan bahwa mereka sedang memperluas kapasitas secara mendesak, dan yang terpenting, kali ini yang terhubung adalah kluster sepuluh ribu kartu chip buatan dalam negeri. Namun karena peningkatan investasi dalam daya komputasi, harga telah meningkat, untungnya saya sebelumnya mendapatkan paket Max. Di sini juga dapat dilihat bahwa dari chip hingga model, dari daya komputasi dasar hingga aplikasi lapisan atas, kita sedang membangun tumpukan teknologi AI kelas dunia yang sepenuhnya milik kita sendiri. Tahun 2026 ditakdirkan menjadi tahun ledakan aplikasi AI, dan juga tahun yang lebih gila. Jika Anda juga ingin merasakan perasaan memiliki arsitek AI kelas atas ini, segera coba GLM-5.Prasyaratnya adalah kamu harus mendapatkan paket Max, haha.
Published in Technology

You Might Also Like