
Alibaba Tongyi Lab Open Sources Qwen3.6-35B-A3B Model
阿里通义实验室于 4 月 16 日宣布开源 Qwen3.6-35B-A3B 模型。这款模型采用稀疏混合专家(MoE)架构,拥有 350 亿参数,每次推理激活 30 亿参数。Qwen3.6-35B-A3B 在智能体编程方面显著超越前代 Qwen3.5-35B-A3B,并能与更大体量的稠密模型如 Qwen3.5-27B 和 Gemma-31B 竞争,同时兼容 OpenClaw、Claude Code 和 Qwen Code 等主流编程助手。
4 月 16 日,阿里通义实验室宣布 Qwen3.6-35B-A3B 开源。据介绍,这是一款采用稀疏混合专家(MoE)架构的高效模型:总参数 350 亿,每次推理仅激活 30 亿参数。
在智能体编程上,Qwen3.6-35B-A3B 大幅超越前代 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B、Gemma-31B 等体量更大的稠密模型一较高下,同时可兼容 OpenClaw、Claude Code、Qwen Code 等主流编程助手。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
