
Alibaba Tongyi Lab Open Sources Qwen3.6-35B-A3B Model
阿里通義實驗室於 4 月 16 日宣佈開源 Qwen3.6-35B-A3B 模型。這款模型採用稀疏混合專家(MoE)架構,擁有 350 億參數,每次推理激活 30 億參數。Qwen3.6-35B-A3B 在智能體編程方面顯著超越前代 Qwen3.5-35B-A3B,並能與更大體量的稠密模型如 Qwen3.5-27B 和 Gemma-31B 競爭,同時兼容 OpenClaw、Claude Code 和 Qwen Code 等主流編程助手。
4 月 16 日,阿里通義實驗室宣佈 Qwen3.6-35B-A3B 開源。據介紹,這是一款採用稀疏混合專家(MoE)架構的高效模型:總參數 350 億,每次推理僅激活 30 億參數。
在智能體編程上,Qwen3.6-35B-A3B 大幅超越前代 Qwen3.5-35B-A3B,並可與 Qwen3.5-27B、Gemma-31B 等體量更大的稠密模型一較高下,同時可兼容 OpenClaw、Claude Code、Qwen Code 等主流編程助手。
風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
