人工智能领域顶级会议neurips 2025最佳论文奖近日揭晓,共评选出四篇获奖论文,其中多篇由华人学者领衔完成。本次获奖研究聚焦语言模型多样性、大模型注意力机制优化、深度强化学习突破以及扩散模型的理论解析。

获奖工作包括 Liwei Jiang 等人提出的《Artificial Hivemind》,揭示了大模型生成过程中的“人工蜂群效应”;来自阿里巴巴通义千问团队的 Zihan Qiu 等人发表的《Gated Attention for Large Language Models》,提出了一种有效缓解“注意力沉降”问题的新架构;普林斯顿大学 Kevin Wang 等人通过构建千层网络实现自监督强化学习的重大进展;以及巴黎文理研究大学 Tony Bonnaire 等人对扩散模型泛化行为的深入理论分析。
值得一提的是,何恺明、孙剑等人于2015年发表的《Faster R-CNN》荣获本届“时间检验奖”,彰显其在计算机视觉领域的深远影响。
以下是各篇获奖论文的简要介绍:
最佳论文
Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
作者:Liwei Jiang, Yuanjun Chai等机构:艾伦人工智能研究所、斯坦福大学内容:构建大规模对话数据集Infinity-Chat,系统性揭示大语言模型在开放式生成任务中存在“群体思维”现象,表现为模型内部重复输出与跨模型同质化倾向,为评估和提升生成多样性提供了新基准。链接:https://www.php.cn/link/7dcaf28989f03f0a85f05eb8d4a96b1d
Gated Attention for Large Language Models: Non-Linearity, Sparsity, and Attention-Sink-Free
作者:Zihan Qiu, Zekun Wang等机构:阿里通义千问团队、爱丁堡大学等内容:提出并验证门控注意力机制在大语言模型中的关键作用,证明其能有效增强非线性表达能力、引入稀疏性,并避免“注意力沉降”问题,相关技术已集成至Qwen3-Next模型中。链接:https://www.php.cn/link/4b9ba87e0fa64737feea24fe89169f3e
1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities
Elser AI Comics
一个免费且强大的AI漫画生成工具,助力你三步创作自己的一出好戏
522 查看详情
作者:Kevin Wang, Ishaan Javali等机构:普林斯顿大学、华沙理工大学内容:首次将神经网络深度扩展至1024层用于自监督强化学习,实验证明该设计显著提升了策略学习能力和目标达成性能,打破了传统浅层结构的局限。链接:https://www.php.cn/link/33807476351b4d1295b34aa9dce30273
Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training
作者:Tony Bonnaire, Raphaël Urfink等机构:巴黎文理研究大学、博科尼大学内容:从动力学角度分析扩散模型训练过程,发现隐式动态正则化机制是其即便在高度过参数化条件下仍能保持良好泛化性的关键原因,为生成模型的理解提供理论支撑。链接:https://www.php.cn/link/7c7b9ebf8078f2004a859430d599a622
最佳论文荣誉提名(亚军)
Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
作者:Yang Yue, Zhiqi Chen等机构:清华大学、上海交通大学内容:质疑当前强化学习方法是否真正增强了大模型的推理能力,指出带可验证奖励的RLVR框架未必带来实质性提升,呼吁更严谨的评估体系与新型训练范式。链接:https://www.php.cn/link/22faad819c7d2f9739083b503674694e
Optimal Mistake Bounds for Transductive Online Learning
作者:Zachary Chase, Steve Hanneke等机构:肯特州立大学、普渡大学等内容:解决了传导式在线学习领域长达三十年的核心难题,精确推导出最优错误上界,并证明其相较于标准在线学习具有二次方级别的复杂度差异。链接:https://www.php.cn/link/b0f47015b6ace4492dd96d63e515e779
Superposition Yields Robust Neural Scaling
作者:Yizhou Liu, Ziming Liu等机构:麻省理工学院内容:提出表征叠加机制是驱动神经缩放定律的根本因素,为解释模型规模增长如何带来性能持续提升提供了新的理论视角。链接:https://www.php.cn/link/a6cd8b85105e31ee5647b65a973f3205
此外,任少卿、何恺明等人于2015年发表的经典论文《Faster R-CNN》被授予“时间检验奖”,该成果奠定了现代目标检测系统的基石架构,至今仍广泛应用于工业界与学术界。
源码地址:点击下载
以上就是NeurIPS 2025 最佳论文奖公布,中国研究者贡献突出的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/902098.html
微信扫一扫
支付宝扫一扫