文章摘要
Sam Altman宣布原计划下周发布的开放权重模型将推迟发布,原因是需要更多时间进行安全测试和审查高风险区域。虽然团队相信社区会利用该模型创造出色成果,但一旦权重发布便无法撤回,因此希望确保一切无误。Altman对此表示歉意,并强调团队正在全力工作。
文章总结
Sam Altman在X平台上发布了一条消息,宣布原计划于下周发布的开放权重模型将推迟发布。他表示,团队需要更多时间进行额外的安全测试,并审查高风险领域。目前尚不确定这一过程需要多长时间。
Altman强调,虽然他们相信社区会利用这一模型创造出伟大的成果,但一旦权重公开,就无法撤回。这是团队首次面临这种情况,因此他们希望确保一切正确无误。他对带来这一坏消息表示歉意,并表示团队正在非常努力地工作。
这条消息发布于2025年7月12日凌晨12:59,已经获得了120万次浏览和1.4千条回复。
评论总结
对OpenAI延迟发布模型的猜测
- 有人认为OpenAI的延迟发布可能是为了与Grok 4竞争,或者是因为Kimi K2的发布提高了标准。
- 引用:“Maybe they’re making last minute changes to compete with Grok 4?”(“也许他们正在做最后的修改以与Grok 4竞争?”)
- 引用:“OpenAI know they need to raise the bar with their release.”(“OpenAI知道他们需要提高发布的标准。”)
对AI公司信任度的比较
- 一些评论者更信任中国的Deepseek和Qwen,认为它们在成本效益和开源方面优于美国AI公司。
- 引用:“I trust Deepseek and Qwen (Alibaba) more than American AI companies.”(“我比美国AI公司更信任Deepseek和Qwen(阿里巴巴)。”)
- 引用:“Deepseek cost $5M to develop, and made multiple novel ways to train.”(“Deepseek的开发成本为500万美元,并创造了多种新颖的训练方法。”)
对“安全测试”的质疑
- 有人认为LLM的“安全测试”更多是营销手段,而非真正的安全需求。
- 引用:“Am I the only one who thinks mention of ‘safety tests’ for LLMs is a marketing scheme?”(“我是唯一一个认为LLM的‘安全测试’是营销手段的人吗?”)
- 引用:“Nobody is going to die if a LLM gives an output that its creators do not like.”(“如果LLM输出了其创作者不喜欢的内容,没有人会因此死亡。”)
对模型性能的怀疑
- 有人怀疑OpenAI的模型性能可能不如Kimi K2,并质疑“安全”理由的合理性。
- 引用:“Probably the results were worse than K2 model released today.”(“可能结果比今天发布的K2模型更差。”)
- 引用:“No serious engineer would say it’s for ‘safety’ reasons.”(“没有认真的工程师会说是出于‘安全’原因。”)
对安全约束的质疑
- 有人指出,安全约束可以被成功移除,例如通过Llama的无审查微调。
- 引用:“the safety constraints can be successfully removed, as demonstrated by uncensored fine-tunes of Llama.”(“安全约束可以被成功移除,正如Llama的无审查微调所展示的那样。”)