文章摘要
Claude Sonnet 4现支持100万tokens的上下文处理能力,较之前提升5倍,可一次性处理包含7.5万行代码的代码库或数十篇研究论文。该功能已在Anthropic API和Amazon Bedrock公测,即将登陆Google Cloud Vertex AI。扩展的上下文支持使开发者能进行更全面的代码分析、文档合成及构建上下文感知的智能代理,同时API定价因计算需求增加而有所调整。
文章总结
Claude Sonnet 4 现已支持 100 万 tokens 的上下文处理能力
Claude Sonnet 4 在 Anthropic API 上现已支持高达 100 万 tokens 的上下文处理能力,这一能力较之前提升了 5 倍,使得用户能够一次性处理包含超过 7.5 万行代码的完整代码库或数十篇研究论文。
更长的上下文,更多的应用场景
随着上下文处理能力的提升,开发者可以利用 Claude 进行更全面和数据密集型的应用,包括:
- 大规模代码分析:加载包括源文件、测试和文档在内的完整代码库。Claude 能够理解项目架构,识别跨文件依赖关系,并提出考虑完整系统设计的改进建议。
- 文档合成:处理大量文档集,如法律合同、研究论文或技术规范。在保持完整上下文的同时,分析数百份文档之间的关系。
- 上下文感知代理:构建能够在数百次工具调用和多步骤工作流程中保持上下文的代理。包括完整的 API 文档、工具定义和交互历史,而不会失去连贯性。
API 定价
为了应对增加的计算需求,超过 20 万 tokens 的提示将调整定价:
| | 提示 ≤ 20 万 | 提示 > 20 万 | | --- | --- | --- | | 输入 | $3 / MTok | $6 / MTok | | 输出 | $15 / MTok | $22.50 / MTok |
结合提示缓存,用户可以减少 Claude Sonnet 4 的延迟和成本。100 万 tokens 的上下文窗口还可以与批处理结合使用,进一步节省 50% 的成本。
客户案例
- Bolt.new:通过将 Claude 集成到其基于浏览器的开发平台中,Bolt.new 正在改变网页开发。其 CEO 表示,Claude Sonnet 4 仍然是他们代码生成工作流程的首选模型,并且在生产环境中始终优于其他领先模型。
- iGent AI:伦敦的 iGent AI 正在通过其 AI 伙伴 Maestro 推进软件开发领域。其 CEO 表示,Claude Sonnet 4 的 100 万 tokens 上下文处理能力已经极大地增强了 Maestro 的自主能力,解锁了真正的生产规模工程。
开始使用
Sonnet 4 的长上下文支持现已在 Anthropic API 上对 Tier 4 和自定义速率限制的客户开放公测,并将在未来几周内逐步扩大可用性。长上下文功能也已在 Amazon Bedrock 上提供,并即将登陆 Google Cloud 的 Vertex AI。我们还在探索如何将长上下文功能引入其他 Claude 产品。
如需了解更多关于 Sonnet 4 和 100 万 tokens 上下文窗口的信息,请参阅我们的文档和定价页面。
评论总结
评论主要围绕Claude的1M token上下文窗口展开,观点分为支持和质疑两派。
支持观点: 1. 技术进步与实用性:部分用户认为1M token的上下文窗口是AI模型的重大进步,尤其适用于处理大型代码库、书籍摘要和多文档信息检索等任务。 - "When done correctly, having one million tokens of context window is amazing for all sorts of tasks."(thimabi) - "I’m excited for this release and hope to see it soon on the UI as well."(thimabi)
- 与竞争对手的对比:一些用户认为Claude的这一功能使其在竞争中占据优势,尤其是与Gemini和ChatGPT相比。
- "The 1M token context was Gemini's headlining feature."(film42)
- "Oh man finally. This has been such a HUGE advantage for Gemini."(andrewstuart)
质疑观点: 1. 价格与性价比:许多用户对Claude的高价格表示不满,认为其性价比不高,尤其是与其他模型相比。 - "It's great they've finally caught up, but unfortunate it's on their mid-tier model only and it's laughably expensive."(ZeroCool2u) - "1M of input... at $6/1M input tokens. Better hope it can one-shot your answer."(isoprophlex)
上下文窗口的有效性:部分用户质疑1M token上下文窗口的实际效果,认为过多的上下文可能导致模型分心,且Claude在之前的版本中并未充分利用较小的上下文窗口。
- "So, more tokens means better but at the same time more tokens means it distracts itself too much along the way."(rootnod3)
- "Claude previously had "200K" context windows, but during testing it wouldn't even hit a full 32K before hitting a wall/it forgetting earlier parts of the context."(Someone1234)
功能限制与配置问题:一些用户指出Claude的功能限制和配置问题,如API与Web界面的差异、上下文窗口的可配置性等。
- "Shame it's only the API. Would've loved to see it via the web interface on claude.ai itself."(mettamage)
- "Strange that they don't mention whether that's enabled or configurable in Claude Code."(falcor84)
总体而言,用户对Claude的1M token上下文窗口持谨慎乐观态度,认为其在技术上有进步,但在价格、有效性和功能配置方面仍有改进空间。