文章摘要
文章指出,随着AI模型进步而人类停滞不前,人类反而开始表现出类似大语言模型(LLM)的缺陷。主要问题包括:人类在对话中不知何时停止,会持续输出无关内容;以及像AI一样存在"小上下文窗口"问题,难以理解复杂情境。作者认为这些原本是AI的缺陷,现在却更常见于人类对话中。
文章总结
标题:人类身上观察到的"大语言模型问题"
来源网站:embd.cc 发布日期:2026年1月7日
核心内容:
随着AI模型不断进化而人类认知能力停滞不前,作者发现许多原本被认为是大型语言模型(LLM)的缺陷,如今在人类对话中反而更为常见。以下是七个典型现象:
不知何时该停止输出 人类常对简单问题给出冗长且离题的回答,就像早期语言模型无法控制生成长度一样。
有限的上下文窗口 人类在长对话中容易遗忘关键信息,而现代AI模型能保持更持久的记忆。作者戏称希望能像升级AI一样"升级"人脑。
训练数据过于狭窄 与能跨领域讨论的AI不同,多数人只能在自己专业领域内进行有效对话。
重复相同错误 人类虽具有长期记忆,却常在对话中反复犯同样的逻辑错误,修正效果远不如AI即时更新。
缺乏泛化能力 人类难以将某个情境中学到的原理迁移到类似场景,常以"情况不同"为由拒绝应用。
无法具体应用原理 与能灵活运用通用规则的AI相反,人类常难以将抽象原则应用到具体实例中。
持续性幻觉 人类坚持错误认知的现象与AI"幻觉"相似,但更难通过提供新证据来纠正。
结语部分指出,AI的进步正在改变人际互动模式:一方面可能削弱人类之间的深层联系,另一方面也促使人类重新思考自身认知局限。作者甚至自嘲本文部分内容就是由GPT-5协助完成的,因为AI在某些方面已明显优于人类。
(注:原文中关于图片引用、网站导航菜单等非核心内容已省略,保留了主要观点和典型例证。技术术语如"上下文窗口"、"泛化能力"等均按计算机领域通用译法处理。)
评论总结
以下是评论内容的总结,平衡呈现不同观点并保留关键引用:
1. 对LLMs与人类交流能力的比较
部分评论认为LLMs在智力上已超越部分人类,甚至能通过图灵测试: - "I fear that they already outpaced a good portion of the population 'intellectually'"(评论4) - "At this point LLMs usually beat humans at the Turing Test!"(评论21)
但也有反对观点认为这种比较过于宽泛: - "It's like getting a gorilla to fly an airplane...the details and circumstances are different"(评论19)
2. LLMs的局限性
用户抱怨LLMs存在固执己见、代码能力差等问题: - "both Gemini and ChatGPT tend to argue with me...inject their own weird stupid ideas"(评论3) - "From my personal experience...it can't even correctly write few lines of code"(评论10)
3. 对人类互动的反思
部分评论批评作者将人际关系工具化: - "This whole post is coming from a place of reducing every relationship...it's kind of disgusting"(评论11) - "this might be one of the most sociopathic things I've ever read"(评论13)
4. 术语与训练数据的讨论
- 建议用"confabulation"替代"hallucination"(评论9)
- 提议"find other datasets not generated by humans"(评论8)
5. 社会影响的不同看法
乐观观点认为AI不必完美: - "they don't have to be perfect when half the people on the road are...high"(评论17) 悲观观点认为这是"dystopian"(评论14)
关键分歧在于:是将LLMs视为人类缺陷的镜像(评论6提到"common in children"),还是本质上不同的存在(评论22指出人类无知时"more obvious")。