Qwen 3.5 Släppt: Öppen Viktmodell med 397B Parametrar, 60% Lägre Kostnad

2/16/2026
3 min read

Alibaba har precis släppt Qwen 3.5-397B-A17B. Detta är den första öppna viktmodellen i Qwen 3.5-serien.

Kärndata

  • Totala parametrar: 397B
  • Aktiva parametrar: 17B per pass (gles MoE)
  • Genomströmning: 8.6x-19x högre än Qwen 3-Max
  • Kostnad: 60% lägre än Qwen 3
  • Språkstöd: 201 språk (utökat från 119 språk)

Detta är inte bara en enkel stapling av parametrar. Det är en omdefiniering av effektivitet.

Qwen 3.5

Arkitektonisk Innovation

Qwen 3.5 använder en hybridarkitektur:

  • Gated Delta Networks + Gles MoE
  • Hybrid Linjär Uppmärksamhet: De flesta lager använder linjär uppmärksamhet, full uppmärksamhet används var fjärde lager
  • Nativ Multimodalitet: Inte tillagt i efterhand, utan tränat från grunden

Det finns tekniska analyser på X:

"Qwen3.5-397B-A17B: Hybrid linear attention + sparse MoE with large-scale RL environment scaling." — @Alibaba_Qwen

Betydelsen av denna arkitektur är: att uppnå prestanda nära en 400B-modell med 17B aktiva parametrar. Slutledningskostnaden minskar kraftigt.

Prestandapåståenden

Alibaba hävdar att Qwen 3.5 slår:

  • GPT-5.2
  • Claude Opus 4.5
  • Gemini 3 Pro

Oberoende testare på X har börjat verifiera:

"Qwen 3.5-397B dropped today... and the benchmarks are insane. Trading blows with Claude Opus 4.5 and GPT-5.2 across the board." — @antonpme

Men det viktigaste är inte riktmärkena, utan agentförmågan:

"The agentic capabilities are the real story here. Qwen 3.5 can interact with GUIs, not just understand them. That's the unlock for workflows that touch existing software." — @thebuildrweekly

Agent-eran

Qwen 3.5:s positionering är tydlig: designad för agent-eran.

  • Kan analysera 2 timmars video
  • Kan självständigt utföra uppgifter över flera applikationer
  • Kan förstå GUI och interagera med den

"Qwen 3.5 can independently take actions across apps." — @thebuildrweekly

Detta innebär att det inte är en "chattbot", utan en "uppgiftsutförare".

Konkurrenssituation

Någon på X sammanfattade veckans AI-lanseringar:

"This might be the single biggest week in AI history: DeepSeek V4, Gemini 3.1 Pro, GPT-5.3, Qwen 3.5, Claude Sonnet 5." — @HeyAbhishek

Rytmen för kinesiska modellföretag är tydlig:

  • DeepSeek V4
  • Qwen 3.5
  • GLM 5
  • MiniMax 2.5

Det kommer nya modeller varje vecka, och varje gång hävdas det att de slår GPT. Detta är inte marknadsföring, det är en upptrappning av kostnadskriget.

Kostnadsstruktur

Tokenpriset för Qwen 3.5 är bara 1/18 av Gemini 3 Pro.

"Qwen 3.5 with performance comparable to Gemini 3, and a token price of only 1/18 of the latter." — @dyz_ob

När prestandan är likvärdig och kostnaden bara är 5%, var är vallgraven för slutna källkodsmodeller?

Slutsats

Qwen 3.5 är inte "Kinas GPT". Det är en omstörtare av kostnadsstrukturen:

  1. 397B parametrar, men aktiverar bara 17B
  2. Öppna vikter, kan distribueras lokalt
  3. Agentförmåga, inte bara konversation
  4. Kostar bara 5% av konkurrenterna

Det finns en intressant förutsägelse på X:

"Qwen 3.5 Q4 版本只需要 225G,很有实用价值" — @janxin

225GB grafikminne, kan köras på en enda maskin. Detta innebär att små och medelstora utvecklare för första gången kan komma i kontakt med en modell som närmar sig GPT-5-nivå.

Den verkliga frågan är inte om Qwen 3.5 kan slå GPT-5.3, utan: hur tjänar AI-företag pengar när kostnaden för toppmodeller sjunker till nära noll?

Published in Technology

You Might Also Like