通义千问 Qwen3.6-27B 宣布开源:270 亿参数稠密模型,编程能力超越 15 倍参数量 MoE 模型

4 月 22 日消息,阿里云通义千问团队今日宣布,开源模型家族迎来新成员 ——Qwen3.6-27B。这是一款拥有 270 亿参数的稠密多模态模型,也是社区呼声最高的模型规格。

此前,通义千问已陆续发布了 Qwen3.6-Plus 和 Qwen3.6-35B-A3B,而此次开源的 27B 版本在保持稠密架构优势的同时,全面提升了智能体编程与多模态推理能力。

据官方介绍,Qwen3.6-27B 支持多模态思考与非思考模式,在智能体编程方面达到了旗舰级表现,全面超越了前代开源旗舰 Qwen3.5-397B-A17B—— 后者是一款总参数 397 亿、激活参数 17 亿的 MoE(混合专家)模型。作为稠密架构,Qwen3.6-27B 无需 MoE 路由即可部署,是开发者在实用、可广泛部署规模上获取顶尖编程能力的理想选择。

在自然语言与编程基准测试中,Qwen3.6-27B 仅凭 270 亿参数,就在所有主要编程基准上全面超越了参数量高达其 15 倍的 Qwen3.5-397B-A17B。

具体来看,SWE-bench Verified 得分 77.2(前代 76.2),SWE-bench Pro 得分 53.5(前代 50.9),Terminal-Bench 2.0 得分 59.3(前代 52.5),SkillsBench 得分 48.2(前代 30.0)。

在推理任务上,Qwen3.6-27B 在 GPQA Diamond 上取得了 87.8 的成绩,可与数倍于其规模的模型相媲美。

视觉语言方面,该模型原生支持多模态,能够处理图像、视频与文本的混合输入,支持视觉推理、文档理解和视觉问答等任务,其能力与 Qwen3.6-35B-A3B 保持一致。

提醒,Qwen3.6-27B 的开源权重已在 Hugging Face 和 ModelScope 平台上提供,开发者可下载进行本地部署。同时,用户也可以在 Qwen Studio(chat.qwen.ai)上直接进行交互对话。

另外,阿里云百炼平台即将支持通过 API 调用该模型,并保留“preserve_thinking”功能,可在消息中保留所有前序轮次的思维内容,官方推荐用于智能体任务。

该模型还可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。

这玩意儿真能打?稠密模型干翻MoE,有点意思,等我下个试试看效果。不过说实话,现在模型更新太快了,今天开源明天可能就有更强的,得看实际部署成本咋样。

没用过别碰。

小白问一下,这个“稠密架构”和MoE具体有啥区别啊?看文章说它参数少但能力强,是不是意味着对咱们普通开发者电脑配置要求低一些?我不太确定理解得对不对。

又来这种帖子了,开源是好,但每次都说“超越前代”、“旗舰表现”,实际用起来还不是一堆问题。等一波真实用户反馈,别又是实验室数据战神。

270亿稠密能干MoE,阿里这次有点东西

稠密好处是部署简单不用router切换,但显存吃得比同规模MoE多不少

对,27B Q4我这边占22G显存,刚好压4090极限

稠密27B在4090上能跑Q4,省了搭MoE的麻烦