文章摘要
作者在搜集资料时发现Factually网站的"事实核查"文章存在问题,它们通过模糊措辞和选择性引用得出与事实不符的结论,质疑这类所谓事实核查实际上是在传播谎言。文章以芝加哥牧师被胡椒弹击中的事件为例,指出核查结果与实际情况相矛盾。
文章总结
标题:事实核查的未来竟是谎言?
作者在撰写一篇关于芝加哥事件的论文时,频繁发现来自factually.co网站的"事实核查"页面。这些页面看似权威:使用专业措辞、保持中立立场、提供详尽引用来源。例如,针对"ICE探员是否在10月用胡椒弹袭击芝加哥牧师"的核查结论是"无证据支持"。
然而事实恰恰相反——该事件曾被福克斯新闻、CNN等多家主流媒体广泛报道,甚至留有牧师被击中的视频证据。问题在于,factually.co采用了一种取巧的话术:所有结论都基于"审查提供的现有材料"。实际上,这个网站只是将用户提问输入大型语言模型(LLM),通过3次网络搜索获取9个网页,再让AI生成看似专业的"事实核查"报告。
这种机制产生了令人担忧的后果: 1. 将白宫东翼是否被拆除的真实事件歪曲为"无确凿证据" 2. 把移民行动中的黑鹰直升机说成是读者混淆了芝加哥黑鹰冰球队 3. 在技术领域错误宣称MongoDB能提供强序列化保证
这些AI生成的报告常居搜索结果前列,用权威的包装传播真假难辨的信息。作者指出,真正的事实核查需要实地调查、查阅原始档案、评估信源等专业工作,而factually.co本质上是个"随机虚假信息生成器",不仅无助于厘清真相,反而加剧了信息污染。文末呼吁停止这种危害认知的行为。
(注:原文中大量具体案例引用和网页链接因篇幅限制未完全呈现,主要保留了最具代表性的三个事实扭曲案例,以及揭示运作机制的关键细节。)
评论总结
评论总结:
- 对AI生成内容的担忧:
- 认为应限制AI的"言论自由",因其可能成为"谎言扩音器"("free speech should apply to humans only, not to humans armed with a gas-powered bullshit spewer")
- 质疑AI可能被用于操控社会("AIs running our societies...You Will Like It")
- 对事实核查机制的质疑:
- 指出现有核查机构可能存在偏见("fact-checkers...would never be caught doctoring videos")
- 认为核查结果可能适得其反,显得居高临下("comes across as condescending...smarty-pants reasons why you were wrong")
- 对新闻业的看法:
- 乐观认为传统媒体可能因AI而复兴("catalyst for newspaper...last remaining credible sources")
- 但质疑其信息来源可靠性("selects sources according to their SEO-gaming proficiency")
- 监管困境:
- 提出"谁来监督监督者"的经典问题("Quis custodiet ipsos custodes?")
- 承认目前没有解决方案("I don't really have a solution in mind")
关键引用: - "free speech should apply to humans only"(评论1) - "AIs running our societies...You Will Like It"(评论3) - "comes across as condescending"(评论8) - "last remaining credible sources"(评论5) - "Quis custodiet ipsos custodes?"(评论6)