Qwen3.6-35B-A3B – 阿里通义开源的混合专家 MoE 模型
通义千问Qwen3.6-35B-A3B:赋能智能体编程与多模态理解的开源新星
阿里通义千问团队重磅发布其最新开源混合专家(MoE)模型——Qwen3.6-35B-A3B。这款模型凭借其高达350亿的总参数量与仅30亿的激活参数,在推理效率和智能体编程能力上取得了突破性进展。在多项编程基准测试中,Qwen3.6-35B-A3B的表现已超越了参数量更大的稠密模型Qwen3.5-27B,并且显著优于谷歌新近推出的Gemma 4系列模型。作为Qwen3.6系列的首个开源版本,它原生集成了多模态感知与推理能力,其视觉语言表现已能与Claude Sonnet 4.5相媲美,甚至在某些方面更胜一筹,使其成为当前最具通用性的开源模型之一。
Qwen3.6-35B-A3B的核心能力解析
- 卓越的智能体编程表现:该模型在Agentic Coding领域展现出非凡实力,在SWE-bench、Terminal-Bench等关键编程基准测试中名列前茅。这使得它能够顺畅地集成到OpenClaw、Claude Code、Qwen Code等第三方编程助手平台,为开发者提供强大的代码辅助。
- 强大的多模态感知与推理:Qwen3.6-35B-A3B原生支持视觉语言理解,在MMMU、RealWorldQA等视觉问答基准上表现抢眼。其在空间智能方面优势尤为突出,在RefCOCO(92.0)和ODInW13(50.8)等测试中均取得优异成绩。
- 灵活的双模式推理机制:模型支持在“思考模式”(适用于复杂推理)与“非思考模式”(追求快速响应)之间灵活切换,能够根据不同的任务场景需求,提供最优化的服务。
- 极致的推理效率:得益于稀疏MoE架构,模型仅需激活30亿参数即可达到与数倍规模稠密模型相当的性能水平,从而大幅降低了推理成本,提高了效率。
- 强大的工具调用与MCP支持:模型能够无缝调用函数、代码解释器,并支持MCP(Model Context Protocol),使其能够连接外部工具和API,高效完成复杂的任务。
- 超长上下文处理能力:支持高达200K的上下文窗口,能够轻松处理长文档的理解、长篇幅的代码生成等复杂任务。
如何解锁Qwen3.6-35B-A3B的强大功能
- 即时在线体验:用户可直接访问Qwen Studio官网(https://chat.qwen.ai/),无需注册即可与模型进行对话。该平台支持文本与图像输入,让用户能够即时体验模型的编程与多模态能力。
- API调用(生产部署)
- 阿里云百炼平台:在阿里云百炼控制台中,选择模型
qwen3.6-flash创建API Key。该平台支持标准的OpenAI协议(Chat Completions/Responses API)以及Anthropic协议,可轻松替换现有的GPT/Claude接口。在调用时,建议启用preserve_thinking参数,以保留思维链,进一步优化智能体任务的表现。 - 本地部署:用户可从Hugging Face下载开源权重,并使用vLLM、Ollama或Transformers等工具进行加载和部署。
- 阿里云百炼平台:在阿里云百炼控制台中,选择模型
- 集成第三方工具
- OpenClaw:在OpenClaw的配置文件中,将Base URL设置为阿里云百炼的端点,填入API Key,并选择模型名称
qwen3.6-flash,即可在终端环境下使用该模型替代默认编码助手。 - Qwen Code:这款专为Qwen系列优化的开源终端AI智能体,首次运行时,输入
/auth完成阿里云百炼认证后,系统将自动识别并调用Qwen3.6-35B-A3B进行代码生成与工具调用。 - Claude Code:由于API协议兼容Anthropic,用户可直接在Claude Code的配置中替换端点地址和模型名称,轻松获得具备视觉能力的编码体验。
- OpenClaw:在OpenClaw的配置文件中,将Base URL设置为阿里云百炼的端点,填入API Key,并选择模型名称
Qwen3.6-35B-A3B的关键特性与使用门槛
- 完全开源与商用许可:模型权重完全开放,支持本地部署与商业化应用,用户可在Hugging Face和ModelScope平台下载。
- 便捷的在线体验:通过Qwen Studio,用户无需进行任何部署,即可直接交互对话,全面体验模型的各项功能。
- 即将推出的API服务:阿里云百炼API即将上线,调用名称为
qwen3.6-flash,兼容OpenAI的Chat Completions和Responses API,以及Anthropic API协议,便于集成。 - 显著降低的硬件要求:相比同等性能的稠密模型,Qwen3.6-35B-A3B大幅降低了本地部署的硬件门槛。仅需支持30亿激活参数的显存即可运行,这使得个人开发者也能轻松实现本地部署。
- 广泛的第三方工具适配:模型已适配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI编程助手,能够无缝接入现有的开发工作流程。
- 特色API参数:API支持
preserve_thinking参数,可在消息中保留前序轮次的思维内容,特别推荐用于复杂的智能体任务。
Qwen3.6-35B-A3B的突出优势
- 极致的参数效率:仅需30亿激活参数,即可在编程和推理任务上超越270亿稠密模型,真正实现“小体积,大能量”,带来卓越的推理经济性。
- 领先的智能体编程能力:在SWE-bench Verified(73.4)和Terminal-Bench 2.0(51.5)等权威编程基准上,其表现超越了同规模甚至更大规模的模型。
- 比肩闭源模型的视觉能力:其多模态表现与Claude Sonnet 4.5不相上下,尤其在空间智能(RefCOCO 92.0)和文档理解方面表现突出。
- 全场景的生态兼容性:同时支持OpenAI和Anthropic的API协议,能够无缝替换现有工作流中的模型,极大降低了迁移成本。
Qwen3.6-35B-A3B的项目资源链接
- HuggingFace模型库:https://huggingface.co/Qwen/Qwen3.6-35B-A3B
Qwen3.6-35B-A3B与同类竞品的深度对比
| 对比维度 | Qwen3.6-35B-A3B | Qwen3.5-27B | Gemma 4-31B |
|---|---|---|---|
| 架构类型 | MoE(稀疏) | Dense(稠密) | Dense(稠密) |
| 总参数量 | 35B | 27B | 31B |
| 激活参数量 | 3B | 27B(全激活) | 31B(全激活) |
| SWE-bench Verified | 73.4 | 75.0 | 52.0 |
| Terminal-Bench 2.0 | 51.5 | 41.6 | 42.9 |
| MMMU(多模态) | 81.7 | 82.3 | 80.4 |
| RealWorldQA | 85.3 | 83.7 | 72.3 |
| 开源协议 | Apache 2.0(可商用) | Apache 2.0 | Apache 2.0 |
| 上下文长度 | 200K | 128K | 128K |
| 多模态支持 | 原生支持 | 需额外适配 | 部分支持 |
| 智能体优化 | 深度优化 | 基础支持 | 基础支持 |
| 部署成本 | 低(仅需3B显存) | 高(需27B显存) | 高(需31B显存) |
Qwen3.6-35B-A3B的应用场景展望
- AI驱动的编程助手:实现代码的自动化生成、错误修复、重构以及代码审查,可无缝集成至IDE,成为开发者的智能伙伴。
- 自主智能体开发:构建能够执行工具调用、网页浏览、代码执行等操作的自主Agent,广泛应用于自动化运维、数据分析等工作流。
- 多模态信息深度理解:处理包含图文混合的文档分析、图表解读、视觉问答及视频内容理解等任务。
- 端侧与边缘计算部署:由于其激活参数少、推理效率高,非常适合部署在资源受限的终端设备或边缘服务器上,提供本地化的AI服务。
- 教育与科研领域:作为开源基座模型,为学术研究、算法教学以及特定领域的微调训练提供强大支持。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...



粤公网安备 44011502001135号