Qwen3.6-35B-A3B

AI工具12分钟前更新 AI工具集
0 0 0

Qwen3.6-35B-A3B – 阿里通义开源的混合专家 MoE 模型

通义千问Qwen3.6-35B-A3B:赋能智能体编程与多模态理解的开源新星

阿里通义千问团队重磅发布其最新开源混合专家(MoE)模型——Qwen3.6-35B-A3B。这款模型凭借其高达350亿的总参数量与仅30亿的激活参数,在推理效率和智能体编程能力上取得了突破性进展。在多项编程基准测试中,Qwen3.6-35B-A3B的表现已超越了参数量更大的稠密模型Qwen3.5-27B,并且显著优于谷歌新近推出的Gemma 4系列模型。作为Qwen3.6系列的首个开源版本,它原生集成了多模态感知与推理能力,其视觉语言表现已能与Claude Sonnet 4.5相媲美,甚至在某些方面更胜一筹,使其成为当前最具通用性的开源模型之一。

Qwen3.6-35B-A3B的核心能力解析

  • 卓越的智能体编程表现:该模型在Agentic Coding领域展现出非凡实力,在SWE-bench、Terminal-Bench等关键编程基准测试中名列前茅。这使得它能够顺畅地集成到OpenClaw、Claude Code、Qwen Code等第三方编程助手平台,为开发者提供强大的代码辅助。
  • 强大的多模态感知与推理:Qwen3.6-35B-A3B原生支持视觉语言理解,在MMMU、RealWorldQA等视觉问答基准上表现抢眼。其在空间智能方面优势尤为突出,在RefCOCO(92.0)和ODInW13(50.8)等测试中均取得优异成绩。
  • 灵活的双模式推理机制:模型支持在“思考模式”(适用于复杂推理)与“非思考模式”(追求快速响应)之间灵活切换,能够根据不同的任务场景需求,提供最优化的服务。
  • 极致的推理效率:得益于稀疏MoE架构,模型仅需激活30亿参数即可达到与数倍规模稠密模型相当的性能水平,从而大幅降低了推理成本,提高了效率。
  • 强大的工具调用与MCP支持:模型能够无缝调用函数、代码解释器,并支持MCP(Model Context Protocol),使其能够连接外部工具和API,高效完成复杂的任务。
  • 超长上下文处理能力:支持高达200K的上下文窗口,能够轻松处理长文档的理解、长篇幅的代码生成等复杂任务。

如何解锁Qwen3.6-35B-A3B的强大功能

  • 即时在线体验:用户可直接访问Qwen Studio官网(https://chat.qwen.ai/),无需注册即可与模型进行对话。该平台支持文本与图像输入,让用户能够即时体验模型的编程与多模态能力。
  • API调用(生产部署)
    • 阿里云百炼平台:在阿里云百炼控制台中,选择模型 qwen3.6-flash 创建API Key。该平台支持标准的OpenAI协议(Chat Completions/Responses API)以及Anthropic协议,可轻松替换现有的GPT/Claude接口。在调用时,建议启用 preserve_thinking 参数,以保留思维链,进一步优化智能体任务的表现。
    • 本地部署:用户可从Hugging Face下载开源权重,并使用vLLM、Ollama或Transformers等工具进行加载和部署。
  • 集成第三方工具
    • OpenClaw:在OpenClaw的配置文件中,将Base URL设置为阿里云百炼的端点,填入API Key,并选择模型名称 qwen3.6-flash,即可在终端环境下使用该模型替代默认编码助手。
    • Qwen Code:这款专为Qwen系列优化的开源终端AI智能体,首次运行时,输入 /auth 完成阿里云百炼认证后,系统将自动识别并调用Qwen3.6-35B-A3B进行代码生成与工具调用。
    • Claude Code:由于API协议兼容Anthropic,用户可直接在Claude Code的配置中替换端点地址和模型名称,轻松获得具备视觉能力的编码体验。

Qwen3.6-35B-A3B的关键特性与使用门槛

  • 完全开源与商用许可:模型权重完全开放,支持本地部署与商业化应用,用户可在Hugging Face和ModelScope平台下载。
  • 便捷的在线体验:通过Qwen Studio,用户无需进行任何部署,即可直接交互对话,全面体验模型的各项功能。
  • 即将推出的API服务:阿里云百炼API即将上线,调用名称为 qwen3.6-flash,兼容OpenAI的Chat Completions和Responses API,以及Anthropic API协议,便于集成。
  • 显著降低的硬件要求:相比同等性能的稠密模型,Qwen3.6-35B-A3B大幅降低了本地部署的硬件门槛。仅需支持30亿激活参数的显存即可运行,这使得个人开发者也能轻松实现本地部署。
  • 广泛的第三方工具适配:模型已适配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI编程助手,能够无缝接入现有的开发工作流程。
  • 特色API参数:API支持 preserve_thinking 参数,可在消息中保留前序轮次的思维内容,特别推荐用于复杂的智能体任务。

Qwen3.6-35B-A3B的突出优势

  • 极致的参数效率:仅需30亿激活参数,即可在编程和推理任务上超越270亿稠密模型,真正实现“小体积,大能量”,带来卓越的推理经济性。
  • 领先的智能体编程能力:在SWE-bench Verified(73.4)和Terminal-Bench 2.0(51.5)等权威编程基准上,其表现超越了同规模甚至更大规模的模型。
  • 比肩闭源模型的视觉能力:其多模态表现与Claude Sonnet 4.5不相上下,尤其在空间智能(RefCOCO 92.0)和文档理解方面表现突出。
  • 全场景的生态兼容性:同时支持OpenAI和Anthropic的API协议,能够无缝替换现有工作流中的模型,极大降低了迁移成本。

Qwen3.6-35B-A3B的项目资源链接

  • HuggingFace模型库:https://huggingface.co/Qwen/Qwen3.6-35B-A3B

Qwen3.6-35B-A3B与同类竞品的深度对比

对比维度Qwen3.6-35B-A3BQwen3.5-27BGemma 4-31B
架构类型MoE(稀疏)Dense(稠密)Dense(稠密)
总参数量35B27B31B
激活参数量3B27B(全激活)31B(全激活)
SWE-bench Verified73.475.052.0
Terminal-Bench 2.051.541.642.9
MMMU(多模态)81.782.380.4
RealWorldQA85.383.772.3
开源协议Apache 2.0(可商用)Apache 2.0Apache 2.0
上下文长度200K128K128K
多模态支持原生支持需额外适配部分支持
智能体优化深度优化基础支持基础支持
部署成本低(仅需3B显存)高(需27B显存)高(需31B显存)

Qwen3.6-35B-A3B的应用场景展望

  • AI驱动的编程助手:实现代码的自动化生成、错误修复、重构以及代码审查,可无缝集成至IDE,成为开发者的智能伙伴。
  • 自主智能体开发:构建能够执行工具调用、网页浏览、代码执行等操作的自主Agent,广泛应用于自动化运维、数据分析等工作流。
  • 多模态信息深度理解:处理包含图文混合的文档分析、图表解读、视觉问答及视频内容理解等任务。
  • 端侧与边缘计算部署:由于其激活参数少、推理效率高,非常适合部署在资源受限的终端设备或边缘服务器上,提供本地化的AI服务。
  • 教育与科研领域:作为开源基座模型,为学术研究、算法教学以及特定领域的微调训练提供强大支持。
阅读原文
© 版权声明

相关文章

AI聚合视觉工厂

暂无评论

暂无评论...