Qwen 3.5 Lansert: Åpen Vektmodell med 397B Parametre, Kostnad Redusert med 60%

2/16/2026
3 min read

Alibaba har nettopp lansert Qwen 3.5-397B-A17B. Dette er den første åpne vektmodellen i Qwen 3.5-serien.

Kjerndata

  • Totalt antall parametre: 397B
  • Aktive parametre: 17B per passering (spars MoE)
  • Gjennomstrømning: 8.6x-19x forbedring sammenlignet med Qwen 3-Max
  • Kostnad: 60% reduksjon sammenlignet med Qwen 3
  • Språkstøtte: 201 språk (utvidet fra 119)

Dette er ikke bare en stabling av parametre. Dette er en redefinisjon av effektivitet.

Qwen 3.5

Arkitektonisk Innovasjon

Qwen 3.5 bruker en hybridarkitektur:

  • Gated Delta Networks + spars MoE
  • Hybrid Lineær Oppmerksomhet: De fleste lag bruker lineær oppmerksomhet, full oppmerksomhet brukes hvert 4. lag
  • Nativ Multimodalitet: Ikke lagt til i etterkant, men trent fra bunnen av

Det finnes teknisk analyse på X:

"Qwen3.5-397B-A17B: Hybrid linear attention + sparse MoE with large-scale RL environment scaling." — @Alibaba_Qwen

Betydningen av denne arkitekturen er: å oppnå ytelse som ligner en 400B-modell med 17B aktive parametre. Kostnadene for inferens reduseres betydelig.

Ytelsespåstander

Alibaba hevder at Qwen 3.5 slår:

  • GPT-5.2
  • Claude Opus 4.5
  • Gemini 3 Pro

Uavhengige testere på X har begynt å verifisere:

"Qwen 3.5-397B dropped today... and the benchmarks are insane. Trading blows with Claude Opus 4.5 and GPT-5.2 across the board." — @antonpme

Men det viktigste er ikke benchmarkene, men agentegenskapene:

"The agentic capabilities are the real story here. Qwen 3.5 can interact with GUIs, not just understand them. That's the unlock for workflows that touch existing software." — @thebuildrweekly

Agent-æraen

Qwen 3.5 er tydelig posisjonert: designet for agent-æraen.

  • Kan analysere 2 timer med video
  • Kan selvstendig utføre oppgaver på tvers av applikasjoner
  • Kan forstå GUI og samhandle med den

"Qwen 3.5 can independently take actions across apps." — @thebuildrweekly

Dette betyr at det ikke er en «chatbot», men en «oppgaveutfører».

Konkurranselandskap

Noen oppsummerte ukens AI-lanseringer på X:

"This might be the single biggest week in AI history: DeepSeek V4, Gemini 3.1 Pro, GPT-5.3, Qwen 3.5, Claude Sonnet 5." — @HeyAbhishek

Rytmen til kinesiske modellprodusenter er tydelig:

  • DeepSeek V4
  • Qwen 3.5
  • GLM 5
  • MiniMax 2.5

Det kommer nye modeller hver uke, og hver gang hevdes det at de slår GPT. Dette er ikke markedsføring, dette er en opptrapping av kostnadskrigen.

Kostnadsstruktur

Tokenprisen for Qwen 3.5 er bare 1/18 av Gemini 3 Pro.

"Qwen 3.5 with performance comparable to Gemini 3, and a token price of only 1/18 of the latter." — @dyz_ob

Når ytelsen er lik og kostnaden bare er 5 %, hvor er vollgraven til lukkede kildemodeller?

Konklusjon

Qwen 3.5 er ikke en «kinesisk GPT». Det er en forstyrrer av kostnadsstrukturen:

  1. 397B parametre, men bare 17B aktiveres
  2. Åpne vekter, kan distribueres lokalt
  3. Agentegenskaper, ikke bare dialog
  4. Kostnadene er bare 5 % av konkurrentene

Det er en interessant spådom på X:

"Qwen 3.5 Q4 版本只需要 225G,很有实用价值" — @janxin

225 GB skjermminne, kan kjøres på en enkelt maskin. Dette betyr at små og mellomstore utviklere for første gang kan få tilgang til en modell som er nær GPT-5-nivå.

Det virkelige spørsmålet er ikke om Qwen 3.5 kan slå GPT-5.3, men: hvordan tjener AI-selskaper penger når kostnadene for toppmodeller reduseres til nesten null?

Published in Technology

You Might Also Like