文章摘要
大型语言模型如ChatGPT生成的回答并非事实,只是预测最可能出现的词语组合,可能听起来合理但不准确可靠。它们像读过很多书却记不清出处的人,给出的回答只是常见词语组合而非权威事实,不应直接当作真理引用。
文章总结
标题:停止引用AI
大型语言模型(如ChatGPT、Claude或Gemini)生成的回复并非事实。它们只是在预测句子中最可能出现的下一个词。
这些模型可以生成听起来很有说服力的信息,但这些信息可能并不准确或可靠。就像一个人读过成千上万本书,却不记得具体内容来源一样。
它们擅长什么? - 生成常见的词语组合 - 提供看似合理的建议
它们不擅长什么? - 保证信息的准确性 - 追溯信息来源
虽然有时你可能会得到正确的答案或不错的建议,但这些回答只是常见词语的组合,而非事实。不要将聊天机器人生成的内容直接复制粘贴并当作权威信息发送给他人。
当你这样做时,你实际上只是在传递"一些经常出现在句子中的词语组合"。有时这可能有所帮助或启发,但这绝不是真理,更不是问题的最终定论。
评论总结
总结评论内容:
- 关于AI可信度的讨论:
- 支持方认为AI应像其他信息源一样提供引用来源(评论8:"LLM应该像维基百科或人类一样引用来源")
- 反对方指出AI存在不可靠性(评论13:"给不同模型相同提示会得到完全不同的答案";评论18:"垃圾进垃圾出,在缺乏文档的专有系统中表现糟糕")
- 职场使用AI的争议:
- 建议明确AI使用规范(评论9:"应明确'可以使用AI但需对交付内容负责'")
- 反对简单依赖AI(评论11:"如果ChatGPT比专家更可信,那雇专家干什么";评论6:"如果老板这样说,就辞职")
- 对网站形式的评价:
- 认为网站设计简单(评论1:"受motherfuckingwebsite启发")
- 批评其被动攻击性(评论17:"这种被动攻击性足以被解雇";评论16:"回应这些网站和用AI回复一样没价值")
- 信息验证的重要性:
- 强调需要验证AI输出(评论14:"要求查看聊天记录以了解他们如何施加影响")
- 类比其他信息源问题(评论10:"同行评审也不像你以为的那样可靠";评论12:"像读了上百本书但忘记出处的人")
- 对AI本质的讨论:
- 认为AI只是高级玩具(评论13:"这些只是令人上瘾的玩具")
- 类比其他技术争议(评论19:"就像Comic Sans字体的争议")
关键引用保留: 1. "LLM应该简单引用其来源,维基百科、人类或狗都应该如此,否则我不会相信它们"(评论8) 2. "给不同模型相同提示会得到完全不同的答案...这些只是令人上瘾的玩具"(评论13) 3. "如果ChatGPT比你们雇用的专家更可信,那要我干什么?"(评论11)