智谱GLM-5这次开源,让高级程序员也危险了...

2/13/2026
6 min read
**真的,2026年的AI比25年疯太多了。** 最近我这个一天16个小时泡在AI里面的人,都有点追不上AI进化的速度。感觉每天一睁眼,世界就变了个样。 这不,昨天深夜,智谱又放了个大招,直接**开源**了他们目前**最强**的旗舰模型:**GLM-5**。 在全球权威的Artificial Analysis榜单里面,**GLM-5超越Gemini干到了全球第四、开源第一!** ![图片](/uploads/wechat-1770959913536-oik3pqi.png) 还真是如我所料啊,记得上次GLM-4.7发布的时候,我就在文章里跟兄弟们预测了一波:盲猜GLM-4.8或者GLM-5将在春节前夕发布,没想到真来了,哈哈😄 而且这次的版本号终于不像之前那样4.5、4.6、4.7这样挤牙膏式的更新了,这次直接干到了5.0。 这就说明,不是什么小修小补,是底座能力的大跨越。 **先给大家介绍一下,这次GLM-5到底更新了啥:** 简单来说,之前的模型,大家普遍都在卷Vibe Coding,就是所谓的一句话生成,看谁生成的网页特效更炫酷,看谁能一句话搓个炫酷的游戏。 但GLM-5这次不跟你卷这个了(终于!),它把大模型的能力从写代码,提升到能构建系统。 什么意思呢?它的重心不再是写漂亮的前端页面,而是进化成了一个能干脏活、累活、做长任务的系统架构师。 强调的是Agentic Engineering,也就是智能体工程能力。 我看了下官方的数据,参数规模从**355B干到了744B(激活40)**,预训练数据从**23T提升到了28.5T**。 在SWE-bench-Verified这个公认的编程基准测试里,得分77.8,直接把Gemini 3 Pro甩在了身后,**和目前公认的最强闭源模型Claude Opus 4.5可以说是不相上下。** ![](/uploads/wechat-1770959913632-3di12gf.png) **目前在z.ai上面就可以免费使用:** ![](/uploads/wechat-1770959913681-xl76jd1.png) **开源地址:** GitHub:https://github.com/zai-org/GLM-5 Hugging Face:https://huggingface.co/zai-org/GLM-5 ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5 其实在前几天,**X上就突然冒出来一个叫Pony的神秘模型。** 当时很多朋友都在猜,这个Pony到底是哪路神仙?众说纷纭 其实代号Pony的模型就是GLM-5,至于为什么叫Pony呢,大概是因为马年快到了吧🤔。 我当时也第一时间从OpenRouter把Pony接入到Claude Code里试用了一下,说实话,真滴很强(在X上热度也是非常高)。 **只花了7分钟,一次性生成了一个API中转站!** 虽然还是MVP Demo,但是页面功能已经很齐全了,而且包含后端逻辑,以及数据库,数据是动态的,麻雀虽小五脏俱全。 ![](/uploads/wechat-1770959913845-kkpqw2d.png)在深度体验后,我发现GLM-5在制定计划的时候,那种味道,太像Claude Opus了。 熟悉Claude Opus的朋友都知道,在干活之前,可以用它会给你列一个非常详细、逻辑严密的计划。 GLM-5现在也有了这个能力。 比如,我有一个一直想做,但是因为懒一直没动手的事儿。 我手头有Gemini、ChatGPT、Kimi、智谱等等一堆会员账号。 平时写文章或者查资料的时候,有些问题我经常会想听听多个AI的意见,综合对比一下。

Så ville jeg skulle åbne flere browservinduer, kopiere og skifte mellem forskellige vinduer for at indsætte og sende flere gange, og derefter skifte mellem vinduer for at se resultaterne.

Selvom det ikke er den store ting, er det virkelig irriterende, når det sker mange gange.

Jeg tænkte, om det var muligt at lave en browserudvidelse, der kunne sende det samme spørgsmål til disse fire AI'ers webversioner i et enkelt vindue, og derefter modtage svarene samlet i udvidelsen?

Men det er faktisk ret besværligt, fordi hver AI-hjemmesides struktur er forskellig, og der er forskellige beskyttelsesmekanismer, der skal analyseres deres DOM-struktur.

Så jeg overlod denne komplekse opgave til GLM-5.

Startede Claude Codes Plan Mode for at få den til at lave en plan først

Og så ville den interagere med mig og spørge om min mening:

Den endelige plan var meget detaljeret, virkelig for lang, med 633 linjer...

Så den begyndte at udføre planen, og jeg havde ikke forventet, at det første trin med at initialisere projektet ville tage over 50 minutter...

I løbet af denne proces kaldte den automatisk Playwright MCP-værktøjet, åbnede selv browseren og besøgte de forskellige AI-hjemmesider.

Den var som en rigtig programmør, der inspicerede elementer, analyserede, hvor inputfeltet var, hvad klassen på send-knappen var, hvordan man fik den returnerede tekststrøm... hele processen var fuldautomatisk, jeg skrev ikke en eneste linje kode.

PS: Glemte at optage skærmen, fordi jeg samtidig kørte en anden opgave i et andet vindue

Det var værd at vente, den udvidelse, jeg ønskede, med et enkelt spørgsmål og svar fra alle AI'er på én gang, kom dampende ud af ovnen.

Det er præcis, hvad jeg havde brug for~

Derudover, lavede jeg ikke en platform til et-klik-generering af digitale personmarkedsføringsvideoer før?

Senere, for at opnå en bedre oplevelse, omstrukturerede jeg frontend, og denne omstrukturering var ikke god, hele projektet var et stort rod: frontend- og backend-grænseflader stemte ikke overens, noget af den gamle backend-logik kunne ikke køre på den nye frontend, der var mange fejl, og det var meget besværligt at ordne.

Denne gang startede jeg plan mode i Claude Code og overlod opgaven med at finde og rette fejl i hovedprocessen direkte til GLM-5

Først kom der en detaljeret plan:

Efter at have bekræftet, at planen var korrekt, lod jeg den begynde at udføre (browser-mcp blev brugt til at kontrollere processen).

Dens udførelseshastighed er ikke hurtig.

Men det er ikke modellen, der er langsom, mange gange ser jeg, at forbruget af Token stiger til tusindvis på et sekund med det blotte øje.

Men fordi opgaven er for kompleks, skal den konstant reflektere over sig selv, kalde værktøjer og køre tests.

Noget af tiden bruges også på at downloade afhængigheder eller udføre kommandoer.

Denne reparationsopgave tog også over 40 minutter.

Nogle venner vil måske sige, 40 minutter? Jeg ville have skrevet det færdigt.

emmm, men i disse 40 minutter havde jeg optagelse kørende, så videoer og gik endda ud for at lufte hunden.

Og den var fuldt fokuseret på at hjælpe mig med at arbejde, og det var den slags arbejde, der var mest hovedpinefremkaldende, at finde fejl og omstrukturere.

Selvom den udfører langsomt, er den endelige effekt meget markant.

Da jeg kørte det, var de fleste problemer løst.

Se venligst VCR:

Der er også nogle effekter her, som jeg opdagede små fejl, da jeg testede det senere, og lod den rette og optimere dem.

Men når det kommer til at rette fejl og optimere funktioner, er jeg virkelig tryg ved at overlade det til den.

Før, når jeg brugte andre AI'er til at rette fejl, var jeg ofte bange for, at der ville komme flere og flere fejl, og at projektet ville blive mere og mere rodet, typisk at tage fra Peter for at betale Paul...

For at undgå dette problem før, måtte jeg bruge forskellige ingeniørmæssige metoder til at begrænse AI'en.

For eksempel hver gang jeg ændrede, understregede jeg omfanget, eller skrev disse ind i reglerne, eller ændrede kun en fejl ad gangen, og efter hver ændring måtte jeg teste andre funktioner... det var i hvert fald meget besværligt.

Men oplevelsen af at bruge GLM-5 til at rette fejl er fuldstændig ændret.

Jeg behøver kun at beskrive situationen, smide fejllogfilerne til den og fortælle den, hvad jeg forventer af effekten.

Den kan næsten rette det med succes én gang, og det vil slet ikke påvirke andre funktioner.

Selv, i en samtale, smed jeg direkte alle fire forskellige fejl, der blev fundet i hele processen, til den, og den kunne også rette dem én efter én på en klar måde.

Denne følelse af stabilitet er virkelig behagelig.

Jeg kan nu trygt overlade GLM-5 til at hjælpe mig med at fuldføre enhver kompleks udviklingsopgave, og den vil stort set ikke lave fejl.

Selv hvis der er problemer en gang imellem, kan jeg bare udføre en rollback-kommando i Claude Code og gå tilbage og starte forfra.

Efter at hele projektet er blevet optimeret af GLM-5, er alle processer stort set færdige.

**Jeg planlægger også snart at open source dette projekt (skal stadig udtrække forskellige model-API'er og gøre dem til konfigurationer).** **»Afsluttende«** Efter at have oplevet GLM-5 er min største følelse: **Kinesisk AI er virkelig rejst sig.** For et par dage siden blev ByteDance's Seedance 2.0 frigivet, hvilket beviste, at kinesiske modeller inden for videogenerering allerede har nået verdensklasse og direkte overgår Sora2 og Veo3.1. Og denne gang har Zhipu GLM-5's frigivelse leveret et uventet godt svar på et andet hardcore spor, AI Coding. Vi sagde altid før, at kinesiske modeller halter bagefter GPT, Claude Opus og Gemini inden for logisk ræsonnement og kodning. Men i dag fortæller GLM-5 os med konkrete resultater: Denne kløft bliver udlignet. GLM-5 er heller ikke bare et legetøj, der kan bruges til at lave demoer; det er et produktivitetsværktøj, der virkelig kan hjælpe dig med at arbejde, hjælpe dig med at bygge systemer, hjælpe dig med at løse lange opgaver og komplekse problemer. **Det vigtigste er, at det er open source.** Dette betyder, at enhver udvikler, enhver virksomhed, kan have en top AI-arkitekt til en lavere pris. Og i øjeblikket er GLM's Coding Plan blevet udsolgt. De officielle meddelelser siger, at de hurtigt udvider kapaciteten, og fokus er, at denne gang er det adgang til en kinesisk chip med et klynge af titusindvis af kort. Men på grund af den øgede investering i computerkraft er prisen steget lidt, heldigvis fik jeg Max-pakken før. Her kan vi også se, at vi fra chips til modeller, fra underliggende computerkraft til applikationer på øverste niveau, er ved at opbygge et fuldt ud eget, verdensklasse AI-teknologistak. 2026 er bestemt et år med eksplosion af AI-applikationer og også et mere vanvittigt år. Hvis du også vil opleve følelsen af at have en top AI-arkitekt, så skynd dig at prøve GLM-5.Forudsætningen er, at du skal snuppe Max-pakken, haha.
Published in Technology

You Might Also Like