文章摘要
xAI提供了多款AI模型,包括语言模型和图像生成模型,按百万token或每张图像计费。其中Grok 4相比Grok 3有显著差异,如仅支持推理模式、不支持某些参数等。不同模型在上下文长度、速率限制和价格上各有特点。
文章总结
xAI模型及工具定价指南
一、模型定价 xAI提供多种AI模型,主要分为语言模型和图像生成模型两大类:
语言模型(按百万tokens计费):
- grok-code-fast-1:上下文长度256,000 tokens
- grok-4系列:最高支持2,000,000 tokens上下文
- grok-3系列:支持131,072 tokens上下文
- grok-2-vision系列:支持32,768 tokens上下文
图像生成模型(按单张图像输出计费):
- grok-2-image-1212:每次调用300单位费用
注:Grok 4与Grok 3的主要区别包括: - Grok 4仅为推理模型,无非推理模式 - 不支持presencePenalty等参数 - 无reasoning_effort参数
二、工具定价 1. token费用: - 按使用模型的费率计算 - 包括输入token、推理token、完成token、图像token和缓存提示token
- 工具调用费用(2025年11月21日前免费):
- 网络搜索/X搜索:10美元/千次
- 代码执行:10美元/千次
- 集合搜索:2.5美元/千次
- 图像/视频分析仅收取token费用
三、实时搜索定价(2025年12月15日将弃用) - 25美元/千次来源请求 - 每次搜索按使用的来源数量计费
四、文档搜索定价 - 文档搜索:2.5美元/千次请求 - 文件存储和集合存储免费
五、其他重要信息 1. 使用规范: - 违规请求将收取0.05美元/次的费用
模型特性:
- 无实时事件访问能力(需启用实时搜索)
- 聊天模型无角色顺序限制
- 图像模型支持最大20MB的jpg/png文件
模型别名:
- 提供版本别名系统便于迁移
上下文窗口:
- 不同模型支持32,768至2,000,000 tokens不等的上下文长度
缓存提示token:
- 自动启用重复提示缓存以节省成本
注:具体费率和功能可能因地域和账户权限而异,建议通过xAI控制台查看最新信息。
评论总结
总结评论内容:
- 关于Grok模型技术性能的讨论
- 认为模型质量比上下文窗口长度更重要:"What matter is not context...But the quality for the model"(评论3)
- 质疑大上下文窗口的实际效用:"Anyone can make a long context window. The key is if your model can make effective use of it"(评论1)
- 对Elon Musk及其公司的争议
- 批评其政治立场影响产品接受度:"when he doubled down on some of his political ideas he had it coming"(评论2)
- 但也有支持者认为他取得实际成就:"he really does get things done, despite naysayers"(评论8)
- 关于讨论内容偏离技术本身的争议
- 批评讨论过度关注个人而非技术:"focusing more on Elon Musk...rather than the quality of the model"(评论8)
- 呼吁保持技术讨论:"this is literally just documentation for a frontier LLM. Can we stay on topic?"(评论7)
- 对Grok产品的实际体验反馈
- 报告具体使用问题:"if I load a 400kb file into it...it can't even read the file"(评论5)
- 质疑承诺兑现:"Elon promised to open source...it took them forever"(评论2)
- 关于帖子被标记的讨论
- 质疑处理标准不一致:"how fast this post is flagged...Have other LLMs got the same treatment"(评论6)
- 认为不应被标记:"This post really has no reason to be flagged"(评论7)