Hacker News 中文摘要

RSS订阅

NeurIPS 2025最佳论文奖 -- NeurIPS 2025 Best Paper Awards

文章摘要

NeurIPS 2025公布了七篇获奖论文,包括四篇最佳论文(含一篇数据集与基准方向)和三篇优秀论文,涵盖扩散模型理论、自监督强化学习、大语言模型注意力机制、推理能力、在线学习理论、神经标度律及语言模型多样性评估等前沿领域突破。获奖论文由程序主席提名的专家委员会从主赛道和数据集赛道中评选产生。

文章总结

NeurIPS 2025最佳论文奖揭晓

评委会组成
最佳论文奖委员会由程序主席、数据库与基准测试赛道主席提名,经大会主席和下一代与可访问性主席审核通过。委员会成员均为机器学习各领域的顶尖研究者。

获奖论文概览
今年共评选出7篇突破性论文,包括4篇最佳论文(含1篇数据集与基准测试赛道论文)和3篇优秀论文。这些研究涵盖了扩散模型理论、自监督强化学习、大语言模型注意力机制、LLM推理能力、在线学习理论、神经缩放定律以及语言模型多样性评估方法等前沿方向。


最佳论文亮点

1. 《人工蜂群思维:语言模型的同质化困境》
- 核心贡献:提出Infinity-Chat数据集(含2.6万条开放查询和3.1万条人工标注),首次建立开放提示词分类体系(6大类17子类)。
- 关键发现:揭示语言模型存在"人工蜂群效应"——同一模型反复生成相似内容(模型内重复),不同模型输出高度趋同(模型间同质化)。
- 评委会评价:这项研究为评估AI创造性、价值多元性和社会影响设立了新标准。

2. 《大语言模型的门控注意力机制》
- 核心发现:在15B MoE和1.7B密集模型上的30组实验证明,对Softmax注意力输出施加头部特异性Sigmoid门控可提升性能。
- 实际应用:该技术已应用于Qwen3-Next模型,代码和模型已开源。
- 评委会评价:这项工业级规模的研究为注意力机制优化提供了可复现的解决方案。

3. 《千层网络实现自监督强化学习突破》
- 创新点:突破RL领域传统浅层架构(2-5层),证明1024层深度网络在无监督目标达成任务中表现卓越。
- 评委会评价:挑战了"强化学习仅适用于微调"的固有认知,为深度网络RL训练提供新范式。

4. 《扩散模型不记忆的奥秘》
- 理论突破:发现扩散模型训练存在双时间尺度——早期泛化阶段(tearly)和后期记忆阶段(tmem),其中t_mem与训练集大小呈线性关系。
- 评委会评价:通过随机特征模型的高维分析,首次揭示扩散模型隐式动态正则化的数学本质。


优秀论文精选

1. 《强化学习真能增强LLM推理能力吗?》
- 颠覆性结论:证明当前RLVR方法仅优化基础模型已有能力,并未真正扩展推理边界。蒸馏技术反而能引入新推理模式。

2. 《转导在线学习的最优错误界》
- 学术价值:解决30年悬案,证明转导学习错误下界为Ω(√d),相比标准在线学习呈现二次方差距。

3. 《叠加表征驱动神经缩放定律》
- 机制揭示:通过玩具模型证实,表征叠加(特征维度超过模型维度)是神经缩放定律的核心驱动力。


完整委员会名单
包括MIT的Jacob Andreas、牛津大学的Yee Whye Teh、微软亚洲研究院的谢幸等14位国际权威学者。

注:获奖证书将在12月大会口头报告环节颁发。

评论总结

以下是评论内容的总结:

  1. 对特定论文的积极评价
  • 评论1高度评价了关于强化学习的论文,认为其可读性强、观点有趣且相关 "Easy to read, gets the point across very intuitively and quickly" "the point is very interesting and relevant to a lot of people"
  1. 对神经网络推理能力的思考
  • 评论1讨论了神经网络处理"叠加"概念的困难,认为离散化token可能有助于推理 "concepts in 'superposition' are harder for a fully-differentiable neural net to reason about" "Discretizing to tokens forces a choice, allows reasoning about a single concept easier"
  1. 对创新性研究的关注
  • 评论2询问是否有奖励创新性研究的奖项 "Does some have a similar award for papers that are innovative?" "new, relatively unproven architectures"
  1. 物理学背景研究人员的表现
  • 评论3指出物理学背景的研究人员在AI/ML领域表现出色 "physicists from stat mech adjacent fields" "continue to punch above their expectations"
  1. 对论文展示形式的偏好
  • 评论4表示更喜欢视频讲解而非阅读论文 "easier to listen and watch then read" "maybe I'm just lazy, not sure"
  1. 不同模型输出的比较
  • 评论5比较了论文中模型与Gemini 3的输出差异 "responses form just two primary clusters" "got something quite different...Time is a patient wind"