Hacker News 中文摘要

RSS订阅

Qwen3-Coder:智能编程新纪元 -- Qwen3-Coder: Agentic coding in the world

文章摘要

Qwen3-Coder是一款先进的代码模型,其最强版本Qwen3-Coder-480B-A35B-Instruct拥有480B参数,支持256K上下文长度,并在编码和代理任务中表现出色。该模型在Agentic Coding、Agentic Browser-Use和Agentic Tool-Use方面创下新纪录,媲美Claude Sonnet 4。同时,开源了命令行工具Qwen Code,适配自定义提示和函数调用协议,充分发挥Qwen3-Coder在代理编码任务中的能力,与开发者工具无缝集成,适用于广泛的数字场景。

文章总结

Qwen3-Coder:全球智能编码的新标杆

2025年7月22日,QwenLM团队正式发布了其最新的智能编码模型——Qwen3-Coder。作为迄今为止最强大的代码模型,Qwen3-Coder提供了多种规格,其中最引人注目的是Qwen3-Coder-480B-A35B-Instruct。该模型拥有4800亿参数,其中350亿为活跃参数,支持256K的上下文长度,并通过外推方法扩展至1M,在编码和智能任务中表现出色。Qwen3-Coder-480B-A35B-Instruct在智能编码、浏览器使用和工具使用等任务中,刷新了开源模型的最优记录,性能可与Claude Sonnet 4媲美。

模型特点

Qwen3-Coder不仅在预训练阶段进行了多维度优化,还在后训练阶段引入了大规模强化学习(RL)技术,进一步提升了模型的编码能力。

预训练优化: - 数据规模:使用了7.5万亿个token进行训练,其中70%为代码数据,确保了模型在编码任务中的卓越表现,同时保留了通用和数学能力。 - 上下文扩展:原生支持256K上下文,通过YaRN方法可扩展至1M,特别适合处理仓库级和动态数据(如Pull Requests),为智能编码提供了强大支持。 - 数据质量提升:利用Qwen2.5-Coder对噪声数据进行清理和重写,显著提高了整体数据质量。

后训练强化: - 代码RL扩展:不同于社区对竞赛级代码生成的关注,Qwen3-Coder通过大规模强化学习,专注于解决现实世界中的编码任务。通过自动生成多样化的测试用例,模型不仅显著提高了代码执行成功率,还在其他任务中取得了显著进展。 - 长时程RL扩展:在真实软件工程任务(如SWE-Bench)中,Qwen3-Coder通过多轮交互与工具进行协作,解决了复杂任务。团队构建了一个可扩展的系统,支持2万个独立环境并行运行,利用阿里云的基础设施,为大规模强化学习提供了必要的反馈。

Qwen Code:智能编码的CLI工具

Qwen Code是一个基于Gemini CLI改造的命令行工具,专为Qwen3-Coder模型优化,支持增强的解析器和工具调用。用户可以通过npm管理器轻松安装Qwen Code,并通过OpenAI SDK调用Qwen3-Coder模型,享受智能编码的便捷体验。

使用场景与API

Qwen3-Coder不仅可以通过Qwen Code使用,还支持与Claude Code的无缝集成。用户只需在阿里云Model Studio平台上获取API密钥,即可开始使用Qwen3-Coder进行编码。此外,Qwen3-Coder还提供了丰富的API接口,用户可以通过Alibaba Cloud Model Studio直接调用模型,进行各种编码任务。

未来展望

QwenLM团队正在积极改进Qwen3-Coder的性能,目标是让其在软件工程中承担更多复杂和繁琐的任务,从而释放人类的生产力。未来,团队还将推出更多规格的Qwen3-Coder模型,在保持高性能的同时降低部署成本。此外,团队还在探索编码代理是否能够实现自我改进,这是一个令人兴奋的研究方向。

Qwen3-Coder的发布标志着智能编码技术迈入了一个新的阶段,未来它将在全球范围内推动编码效率的提升,成为开发者不可或缺的助手。

评论总结

评论内容总结:

  1. 模型性能与本地运行

    • 评论者认为Qwen3-Coder的性能接近Sonnet 4,且由于其MoE架构,可能适合本地运行。
    • 引用:
      • "Open weight models matching Cloud 4 is exciting! It's really possible to run this locally since it's MoE"
      • "With the performance apparently comparable to Sonnet some of the heavy Claude Code users could be interested in running it locally."
  2. 硬件需求与经济效益

    • 评论者讨论了运行Qwen3-Coder所需的硬件配置,并认为本地运行可能对团队更经济。
    • 引用:
      • "What sort of hardware will run Qwen3-Coder-480B-A35B-Instruct?"
      • "Huge bills for usage are regularly shared on X, so maybe it could even be economical."
  3. 开源与工具使用

    • 评论者赞赏Qwen团队使用OpenHands作为基准测试的框架,并提到Qwen Code是基于Gemini Code的分支。
    • 引用:
      • "Glad to see everyone centering on using OpenHands as the scaffold!"
      • "The 'qwen-code' app seems to be a gemini-cli fork."
  4. 模型大小与适用场景

    • 评论者对较小规模的模型更感兴趣,认为它们更适合本地运行,同时保留调用更大模型的灵活性。
    • 引用:
      • "I'm most excited for the smaller sizes because I'm interested in locally-runnable models."
      • "I love having the option of high-quality open-weight models for this."
  5. 自我改进与未来展望

    • 评论者对模型自我改进的潜力表示惊叹,认为这标志着科幻时代的到来。
    • 引用:
      • "How casually we enter the sci-fi era."
      • "Additionally, we are actively exploring whether the Coding Agent can achieve self-improvement."
  6. 模型发布与尝试

    • 评论者对Qwen3-Coder的发布表示祝贺,并期待尝试。
    • 引用:
      • "Congrats to the Qwen team on this release! I'm excited to try it out."
      • "I just checked and it's up on OpenRouter."