Hacker News 中文摘要

RSS订阅

Grok 4 Fast现已支持200万上下文窗口 -- Grok 4 Fast now has 2M context window

文章摘要

xAI提供了多款AI模型,包括语言模型和图像生成模型,按百万token或每张图像计费。其中Grok 4相比Grok 3有显著差异,如仅支持推理模式、不支持某些参数等。不同模型在上下文长度、速率限制和价格上各有特点。

文章总结

xAI模型及工具定价指南

一、模型定价 xAI提供多种AI模型,主要分为语言模型和图像生成模型两大类:

  1. 语言模型(按百万tokens计费):

    • grok-code-fast-1:上下文长度256,000 tokens
    • grok-4系列:最高支持2,000,000 tokens上下文
    • grok-3系列:支持131,072 tokens上下文
    • grok-2-vision系列:支持32,768 tokens上下文
  2. 图像生成模型(按单张图像输出计费):

    • grok-2-image-1212:每次调用300单位费用

注:Grok 4与Grok 3的主要区别包括: - Grok 4仅为推理模型,无非推理模式 - 不支持presencePenalty等参数 - 无reasoning_effort参数

二、工具定价 1. token费用: - 按使用模型的费率计算 - 包括输入token、推理token、完成token、图像token和缓存提示token

  1. 工具调用费用(2025年11月21日前免费):
    • 网络搜索/X搜索:10美元/千次
    • 代码执行:10美元/千次
    • 集合搜索:2.5美元/千次
    • 图像/视频分析仅收取token费用

三、实时搜索定价(2025年12月15日将弃用) - 25美元/千次来源请求 - 每次搜索按使用的来源数量计费

四、文档搜索定价 - 文档搜索:2.5美元/千次请求 - 文件存储和集合存储免费

五、其他重要信息 1. 使用规范: - 违规请求将收取0.05美元/次的费用

  1. 模型特性:

    • 无实时事件访问能力(需启用实时搜索)
    • 聊天模型无角色顺序限制
    • 图像模型支持最大20MB的jpg/png文件
  2. 模型别名:

    • 提供版本别名系统便于迁移
  3. 上下文窗口:

    • 不同模型支持32,768至2,000,000 tokens不等的上下文长度
  4. 缓存提示token:

    • 自动启用重复提示缓存以节省成本

注:具体费率和功能可能因地域和账户权限而异,建议通过xAI控制台查看最新信息。

评论总结

总结评论内容:

  1. 关于Grok模型技术性能的讨论
  • 认为模型质量比上下文窗口长度更重要:"What matter is not context...But the quality for the model"(评论3)
  • 质疑大上下文窗口的实际效用:"Anyone can make a long context window. The key is if your model can make effective use of it"(评论1)
  1. 对Elon Musk及其公司的争议
  • 批评其政治立场影响产品接受度:"when he doubled down on some of his political ideas he had it coming"(评论2)
  • 但也有支持者认为他取得实际成就:"he really does get things done, despite naysayers"(评论8)
  1. 关于讨论内容偏离技术本身的争议
  • 批评讨论过度关注个人而非技术:"focusing more on Elon Musk...rather than the quality of the model"(评论8)
  • 呼吁保持技术讨论:"this is literally just documentation for a frontier LLM. Can we stay on topic?"(评论7)
  1. 对Grok产品的实际体验反馈
  • 报告具体使用问题:"if I load a 400kb file into it...it can't even read the file"(评论5)
  • 质疑承诺兑现:"Elon promised to open source...it took them forever"(评论2)
  1. 关于帖子被标记的讨论
  • 质疑处理标准不一致:"how fast this post is flagged...Have other LLMs got the same treatment"(评论6)
  • 认为不应被标记:"This post really has no reason to be flagged"(评论7)