Qwen 3.5 Udgivet: 397B Parametre Åben Vægtmodel, Omkostningerne Reduceret med 60%

2/16/2026
3 min read

Alibaba har netop udgivet Qwen 3.5-397B-A17B. Dette er den første åben vægtmodel i Qwen 3.5-serien.

Kerne Data

  • Samlede parametre: 397B
  • Aktiverede parametre: 17B per pass (spars MoE)
  • Gennemstrømning: 8.6x-19x højere end Qwen 3-Max
  • Omkostninger: 60% lavere end Qwen 3
  • Sprogunderstøttelse: 201 sprog (udvidet fra 119 sprog)

Dette er ikke bare simpel parameterstabling. Dette er en omdefinering af effektivitet.

Qwen 3.5

Arkitektonisk Innovation

Qwen 3.5 bruger en hybrid arkitektur:

  • Gated Delta Networks + spars MoE
  • Hybrid lineær opmærksomhed: De fleste lag bruger lineær opmærksomhed, hver 4. lag bruger fuld opmærksomhed
  • Indfødt multimodal: Ikke tilføjet senere, men trænet fra bunden

Der er teknisk analyse på X:

"Qwen3.5-397B-A17B: Hybrid linear attention + sparse MoE with large-scale RL environment scaling." — @Alibaba_Qwen

Betydningen af denne arkitektur er: at opnå ydeevne tæt på en 400B model med 17B aktiverede parametre. Udledningsomkostningerne er reduceret betydeligt.

Ydelsespåstande

Alibaba hævder, at Qwen 3.5 slår:

  • GPT-5.2
  • Claude Opus 4.5
  • Gemini 3 Pro

Uafhængige testere på X er begyndt at validere:

"Qwen 3.5-397B dropped today... and the benchmarks are insane. Trading blows with Claude Opus 4.5 and GPT-5.2 across the board." — @antonpme

Men det mest afgørende er ikke benchmark-testene, men agent-kapaciteten:

"The agentic capabilities are the real story here. Qwen 3.5 can interact with GUIs, not just understand them. That's the unlock for workflows that touch existing software." — @thebuildrweekly

Agent-æraen

Qwen 3.5's positionering er klar: designet til agent-æraen.

  • Kan analysere 2 timers video
  • Kan selvstændigt udføre opgaver på tværs af applikationer
  • Kan forstå GUI og interagere med den

"Qwen 3.5 can independently take actions across apps." — @thebuildrweekly

Dette betyder, at det ikke er en "chatbot", men en "opgaveudfører".

Konkurrencelandskab

Nogen på X opsummerede denne uges AI-udgivelser:

"This might be the single biggest week in AI history: DeepSeek V4, Gemini 3.1 Pro, GPT-5.3, Qwen 3.5, Claude Sonnet 5." — @HeyAbhishek

Rytmen for kinesiske modelproducenter er klar:

  • DeepSeek V4
  • Qwen 3.5
  • GLM 5
  • MiniMax 2.5

Der kommer nye modeller hver uge, og hver gang hævder de at slå GPT. Dette er ikke markedsføring, det er en eskalering af omkostningskrigen.

Omkostningsstruktur

Qwen 3.5's token-pris er kun 1/18 af Gemini 3 Pro.

"Qwen 3.5 with performance comparable to Gemini 3, and a token price of only 1/18 of the latter." — @dyz_ob

Når ydeevnen er tæt på, og omkostningerne kun er 5%, hvor er så den lukkede kildemodels voldgrav?

Bundlinje

Qwen 3.5 er ikke "Kinas GPT". Det er en forstyrrer af omkostningsstrukturen:

  1. 397B parametre, men kun 17B aktiveret
  2. Åben vægt, kan implementeres lokalt
  3. Agent-kapacitet, ikke kun dialog
  4. Omkostninger er kun 5% af konkurrenterne

Der er en interessant forudsigelse på X:

"Qwen 3.5 Q4 版本只需要 225G,很有实用价值" — @janxin

225GB videohukommelse, kan køre på en enkelt maskine. Dette betyder, at små og mellemstore udviklere for første gang kan få adgang til en model, der er tæt på GPT-5 niveau.

Det virkelige spørgsmål er ikke, om Qwen 3.5 kan slå GPT-5.3, men: hvordan tjener AI-virksomheder penge, når omkostningerne ved topmodeller falder til næsten nul?

Published in Technology

You Might Also Like