阿里通义实验室开源 Qwen3.6-35B-A3B 模型
4 月 16 日,阿里通义实验室宣布 Qwen3.6-35B-A3B 开源。据介绍,这是一款采用稀疏混合专家(MoE)架构的高效模型:总参数 350 亿,每次推理仅激活 30 亿参数。在智能体编程上,Qwen3.6-35B-A3B 大幅超越前代 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B、Gemma-31B 等体量更大的稠密模型一较高下,同时可兼容 OpenClaw、Claude Code、Qwen Code 等主流编程助手。