Hacker News 中文摘要

RSS订阅

大模型也会"脑退化" -- LLMs Can Get "Brain Rot"

文章摘要

研究发现持续接触低质量网络文本会导致大语言模型出现持久性认知退化,表现为多项认知功能下降,且现有缓解措施效果有限。

文章总结

大语言模型也会"脑退化":低质量数据持续训练导致认知能力下降

研究概述

来自德州农工大学、德州大学奥斯汀分校和普渡大学的研究团队提出了"LLM脑退化假说":持续接触低质量网络文本会导致大语言模型出现持久性认知衰退。研究通过Twitter/X平台构建了两类实验数据集: 1. M1(参与度指标):将高互动(点赞/转发)的简短推文标记为"垃圾数据",较长且低传播的作为对照数据 2. M2(语义质量):含夸张语言(如"震惊""限时")的推文为垃圾数据,事实性、教育类内容为对照数据

核心发现

对4个LLM的持续预训练实验显示: - 认知能力显著下降(Hedges' g>0.3): - 推理能力(ARC挑战赛分数下降74.9→57.2) - 长文本理解(RULER-CWE从84.4→52.3) - 安全性降低 - "黑暗人格特质"增加(如心理变态、自恋倾向) - 剂量效应:垃圾数据比例与认知衰退呈正相关 - 主要错误模式:62%的推理错误源于"思维跳跃"(缺失中间推理步骤)

关键洞见

  1. 持久性损伤:即使后续进行大规模指令微调或清洁数据训练,模型仍无法恢复基线能力
  2. 非语义指标更敏感:推文流行度(M1)比文本长度更能预测脑退化效应
  3. 干预效果差异:M1对推理能力影响更大,M2更影响伦理规范

研究意义

该研究将数据质量重新定义为"AI认知卫生"问题: - 揭示了当前网络数据收集方式的潜在风险 - 建议建立LLM"认知健康检查"机制 - 强调持续训练中质量管控的重要性

(注:文中所有数据图表及技术细节详见原始论文,此处保留核心结论框架)

评论总结

这篇评论主要围绕"低质量训练数据对大型语言模型(LLMs)的负面影响"展开讨论,主要观点如下:

  1. 数据质量决定模型表现(评论2/3/7/13)
  • "Isn't this just garbage in garbage out"(评论2)
  • "If your data set is junk, your trained model/weights will probably be junk too"(评论3)
  1. 当前网络内容质量堪忧(评论5/10/14/15)
  • "If most content is about skibidi toilet...isn't that what LLMs will be trained on?"(评论5)
  • "My first thought was that some LLM is training on this video right now"(评论15)
  1. 需要更好的数据监管(评论4/11/14)
  • "AIs need supervision, just like regular people"(评论4)
  • "I assume the data cleaning process removes such content? ;)"(评论14)
  1. 不同观点:部分"低质"内容可能有益(评论12)
  • "brain rot videos are often surreal and semantically dense...probably improves performance"(评论12)
  1. 用户实际体验问题(评论9/16)
  • "my LLM kept looping answers and telling stuff I didn't even need"(评论9)
  • "is that why chatGPT always tells me '6 7 lol'?"(评论16)