文章摘要
Kimi.ai发布了开源智能模型Kimi K2,该模型采用1T总参数和32B活跃参数的MoE架构,在SWE Bench、Tau2和AceBench等开源模型中表现优异,尤其在编码和智能任务方面。目前暂不支持多模态和思维模式,但Kimi K2的推出使高级智能技术更加开放和易用。
文章总结
文章主要内容如下:
Kimi.ai 在 X 平台上发布了一篇关于其最新开源模型 Kimi K2 的公告。Kimi K2 是一个先进的代理智能模型,具有以下特点:
模型架构:Kimi K2 是一个总参数量为 1T、活跃参数量为 32B 的 MoE(Mixture of Experts)模型。
性能表现:在 SWE Bench Verified、Tau2 和 AceBench 等基准测试中,Kimi K2 在开源模型中达到了最先进的水平(SOTA)。
应用领域:该模型在编码和代理任务方面表现出色。
当前限制:Kimi K2 目前不支持多模态和思维模式。
API 和价格:Kimi K2 提供了 API 接口,价格为每百万输入 token 0.15 美元(缓存命中)或 0.60 美元(缓存未命中),每百万输出 token 2.50 美元。
资源链接:
- 技术博客:moonshotai.github.io/Kimi-K2/
- 权重和代码:huggingface.co/moonshotai
- GitHub 仓库:github.com/MoonshotAI/Kim
- 技术博客:moonshotai.github.io/Kimi-K2/
试用方式:用户可以通过 Kimi.ai 或 API 立即试用 Kimi K2。
文章还附有一张图片,展示了 Kimi K2 的相关信息。
该公告发布于 2025 年 7 月 11 日下午 3:03,截至发布时已有 391.1K 次浏览和 124 条回复。
评论总结
模型规模与发布
- 主要观点:Kimi-K2-Instruct 模型是目前最大的开源权重模型,其权重文件大小达到958.52 GB。
- 论据:
- “This is both the largest oss model release thus far, and the largest Muon training run.”(这是迄今为止最大的开源模型发布,也是最大的Muon训练运行。)
- “Big release - model weights are 958.52 GB”(重磅发布 - 模型权重为958.52 GB)
模型性能与比较
- 主要观点:Kimi-K2-Instruct 在本地LLM中表现最佳,但实际运行该模型的用户较少。
- 论据:
- “If the SWE Bench results are to be believed... this looks best in class right now for a local LLM.”(如果SWE Bench结果可信,这看起来是目前本地LLM中最好的。)
- “To be fair, show me the guy who is running this locally...”(公平地说,给我看看谁在本地运行这个模型...)
非代理模型与代理模型的讨论
- 主要观点:有人质疑为何不直接使用现有的非代理模型(如Claude、Gemini)并通过LangChain等工具进行编排,而非要开发新的代理模型。
- 论据:
- “Why not use existing ‘non-agentic’ model and ‘orchestrate’ them using LangChain, MCP etc? Why create a new breed of model?”(为什么不使用现有的非代理模型并通过LangChain、MCP等进行编排,而非要开发新的模型?)
- “From reading articles online, ‘agentic’ means like you have a ‘virtual’ Virtual Assistant with ‘hands’ that can google, open apps, etc, on their own.”(根据网上的文章,“代理”意味着你有一个“虚拟”的虚拟助手,它可以自己谷歌、打开应用等。)
与其他模型的比较
- 主要观点:有人将Kimi-K2-Instruct与Grok 4模型进行比较,询问其表现如何。
- 论据:
- “How does it stack up against the new Grok 4 model?”(它与新的Grok 4模型相比如何?)
幽默与讽刺
- 主要观点:有人调侃扎克伯格花费巨资挖角却可能无法击败预算有限的中国模型。
- 论据:
- “Would be hilarious if Zuck with his billion dollar poaching failed to beat budget Chinese models.”(如果扎克伯格花费巨资挖角却无法击败预算有限的中国模型,那将非常有趣。)