Lancement de Qwen 3.5 : Modèle à poids ouverts de 397B paramètres, coût réduit de 60 %

2/16/2026
4 min read

Alibaba vient de lancer Qwen 3.5-397B-A17B. Il s'agit du premier modèle à poids ouverts de la série Qwen 3.5.

Données clés

  • Nombre total de paramètres : 397B
  • Paramètres actifs : 17B par passe (MoE clairsemé)
  • Débit : 8,6x-19x supérieur à Qwen 3-Max
  • Coût : 60 % inférieur à Qwen 3
  • Prise en charge des langues : 201 (extension de 119)

Ce n'est pas un simple empilement de paramètres. C'est une redéfinition de l'efficacité.

Qwen 3.5

Innovation architecturale

Qwen 3.5 utilise une architecture hybride :

  • Gated Delta Networks + MoE clairsemé
  • Attention linéaire hybride : la plupart des couches utilisent l'attention linéaire, l'attention complète est utilisée tous les 4 couches
  • Multimodalité native : pas ajoutée ultérieurement, mais entraînée à partir de zéro

Il y a une analyse technique sur X :

"Qwen3.5-397B-A17B: Hybrid linear attention + sparse MoE with large-scale RL environment scaling." — @Alibaba_Qwen

La signification de cette architecture est la suivante : atteindre des performances proches d'un modèle de 400B avec 17B de paramètres actifs. Le coût d'inférence est considérablement réduit.

Allégations de performance

Alibaba affirme que Qwen 3.5 a battu :

  • GPT-5.2
  • Claude Opus 4.5
  • Gemini 3 Pro

Des testeurs indépendants sur X commencent à vérifier :

"Qwen 3.5-397B dropped today... and the benchmarks are insane. Trading blows with Claude Opus 4.5 and GPT-5.2 across the board." — @antonpme

Mais le plus important n'est pas les benchmarks, mais les capacités d'agent :

"The agentic capabilities are the real story here. Qwen 3.5 can interact with GUIs, not just understand them. That's the unlock for workflows that touch existing software." — @thebuildrweekly

L'ère des agents

Le positionnement de Qwen 3.5 est clair : conçu pour l'ère des agents.

  • Peut analyser 2 heures de vidéo
  • Peut exécuter indépendamment des tâches inter-applications
  • Peut comprendre les GUI et interagir avec elles

"Qwen 3.5 can independently take actions across apps." — @thebuildrweekly

Cela signifie que ce n'est pas un « chatbot », mais un « exécuteur de tâches ».

Paysage concurrentiel

Quelqu'un sur X a résumé les lancements d'IA de cette semaine :

"This might be the single biggest week in AI history: DeepSeek V4, Gemini 3.1 Pro, GPT-5.3, Qwen 3.5, Claude Sonnet 5." — @HeyAbhishek

Le rythme des fabricants de modèles chinois est clair :

  • DeepSeek V4
  • Qwen 3.5
  • GLM 5
  • MiniMax 2.5

Il y a un nouveau modèle chaque semaine, et chacun prétend battre GPT. Ce n'est pas du marketing, c'est une escalade de la guerre des coûts.

Structure des coûts

Le prix par token de Qwen 3.5 n'est que de 1/18 de celui de Gemini 3 Pro.

"Qwen 3.5 with performance comparable to Gemini 3, and a token price of only 1/18 of the latter." — @dyz_ob

Lorsque les performances sont proches et que le coût n'est que de 5 %, où est le rempart des modèles à source fermée ?

Conclusion

Qwen 3.5 n'est pas le « GPT chinois ». C'est un perturbateur de la structure des coûts :

  1. 397B paramètres, mais seulement 17B activés
  2. Poids ouverts, déployable localement
  3. Capacités d'agent, pas seulement de la conversation
  4. Coût de seulement 5 % de celui des concurrents

Il y a une prédiction intéressante sur X :

"Qwen 3.5 Q4 版本只需要 225G,很有实用价值" — @janxin

225 Go de mémoire GPU, peut être exécuté sur une seule machine. Cela signifie que les petits et moyens développeurs peuvent accéder pour la première fois à un modèle proche de GPT-5.

La vraie question n'est pas de savoir si Qwen 3.5 peut battre GPT-5.3, mais : comment les entreprises d'IA gagnent-elles de l'argent lorsque le coût des meilleurs modèles est proche de zéro ?

Published in Technology

You Might Also Like