昨天,阿里开源最新的编程模型:Qwen3-Coder,其性能在开源模型中达到了新的最先进水平。随模型一同开源的,还有一款面向智能体式编程的命令行工具:Qwen Code。Qwen Code 是基于 Gemini CLI 分支开发,其功能定位与 Gemini CLI 相同。
Qwen3-Coder 模型介绍
Qwen3-Coder:"Agentic Coding in the World"(在世界中自主编程)
官方文档:
- https://qwenlm.github.io/blog/qwen3-coder/
- https://github.com/QwenLM/Qwen3-Coder
- https://github.com/QwenLM/qwen-code
今天,我们正式发布 Qwen3-Coder,这是我们迄今为止最先进的智能体式代码模型。Qwen3-Coder 提供多种规模版本,但我们首先推出其中最强大的变体:Qwen3-Coder-480B-A35B-Instruct —— 一个拥有 4800 亿参数的混合专家(Mixture-of-Experts)模型,激活参数为 350 亿,能够在代码生成和智能体任务方面提供卓越的性能。Qwen3-Coder-480B-A35B-Instruct 在开源模型中于智能体编程、智能体浏览器使用和智能体工具使用等任务上树立了新的最先进水平,性能可与 Claude Sonnet 相媲美。

随模型一同开源的,还有一款面向智能体式编程的命令行工具:Qwen Code。该工具基于 Gemini Code 分支开发,通过定制化提示词与函数调用协议,充分释放 Qwen3-Coder 在智能体编程任务中的潜力。Qwen3-Coder 可与社区顶尖开发者工具无缝协作。作为基础模型,我们期待它能在数字世界的任何场景中被使用——在世界中实现智能体式编程!
- 模型定位:目前最先进的智能体式编程(Agentic Coding)模型,支持代码生成、浏览器交互、工具调用等复杂任务。
- 核心参数:
- Qwen3-Coder-480B-A35B-Instruct:4800 亿参数的混合专家(MoE)模型,激活参数 350 亿。
- 上下文长度:原生支持 256K token,通过 YaRN 技术扩展至 100 万 token,适用于超大规模代码仓库和动态数据(如 Pull Requests)。
- 性能表现:
- 在开源模型中,智能体编程、浏览器使用、工具调用等任务上达到 SOTA(与 Claude Sonnet 4 相当)。
预训练策略
- 扩展数据量:预训练数据达 7.5 万亿 token,其中 70% 为代码数据,兼顾代码能力与通用数学能力。
- 长上下文优化:针对仓库级代码和动态数据优化,赋能智能体式编程。
- 合成数据质量提升:利用 Qwen2.5-Coder 清理和重写噪声数据,显著提升数据质量。
后训练与强化学习
- 代码强化学习(Code RL):
- 长周期强化学习(Long-Horizon RL):通过多轮交互(规划、调用工具、反馈、决策)解决真实软件工程任务(如 SWE-Bench)。
- 大规模环境支持:基于阿里云基础设施构建可并行运行 20,000 个独立环境的系统,支持大规模强化学习训练。
- :在 SWE-Bench Verified 任务上达到开源模型 SOTA,且无需测试时扩展。









