Qwen3.6 真的把 Gemma4 打了
阿里这周放了 Qwen3.6-35B-A3B,agentic coding 基本所有 benchmark 都把 Gemma4-31B 摁在地上打。开源。
A3B 这个套路是重点。总共 35B 参数,但每个 token 只激活 3B,走的是 MoE 路线。说白了就是:小模型的经济账,大模型的能力。Terminal-Bench 2.0——就是那个模型要真去跑命令、操纵 shell 的 agentic 终端编码评测——Qwen3.6 拿 51.5,Gemma4-31B 拿 42.9。SWE-bench Pro 上 Qwen3.6 49.5,Gemma4 35.7。
上下文原生 262K,可扩展到 100 万以上。这个版本还支持跨历史消息保留推理上下文,小细节但对迭代编码来说是刚需。Agentic 工作流是复利效应——一轮省几个 token,跑 30 轮重构一个 repo 能省出一大块。
最重要的是 open to all 这个定位。Qwen 一直把自己做成闭源 agentic coder 的开源默认替代品。2026 年 Kimi、DeepSeek、GLM、现在再加上 Qwen3.6,中国开源权重栈已经成为 Anthropic 和 OpenAI 之外的一条完整平行赛道了。而且这次 Unsloth 已经把 GGUF 量化版一起放出来了,今天就能本地跑。
模型地址: https://huggingface.co/Qwen/Qwen3.6-35B-A3B
← 返回所有文章
A3B 这个套路是重点。总共 35B 参数,但每个 token 只激活 3B,走的是 MoE 路线。说白了就是:小模型的经济账,大模型的能力。Terminal-Bench 2.0——就是那个模型要真去跑命令、操纵 shell 的 agentic 终端编码评测——Qwen3.6 拿 51.5,Gemma4-31B 拿 42.9。SWE-bench Pro 上 Qwen3.6 49.5,Gemma4 35.7。
上下文原生 262K,可扩展到 100 万以上。这个版本还支持跨历史消息保留推理上下文,小细节但对迭代编码来说是刚需。Agentic 工作流是复利效应——一轮省几个 token,跑 30 轮重构一个 repo 能省出一大块。
最重要的是 open to all 这个定位。Qwen 一直把自己做成闭源 agentic coder 的开源默认替代品。2026 年 Kimi、DeepSeek、GLM、现在再加上 Qwen3.6,中国开源权重栈已经成为 Anthropic 和 OpenAI 之外的一条完整平行赛道了。而且这次 Unsloth 已经把 GGUF 量化版一起放出来了,今天就能本地跑。
模型地址: https://huggingface.co/Qwen/Qwen3.6-35B-A3B
评论