大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

腾讯混元团队揭示大模型浮点量化训练规律,找到最佳性价比配置

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

图片

大模型低精度训练和推理是降低成本的关键方向,而浮点量化因其损耗小而备受关注。然而,现有整数量化经验能否直接应用于浮点量化?浮点量化是否存在极限?这些问题亟待解答。腾讯混元团队近期发表的论文《Scaling Laws for Floating–Point Quantization Training》(https://www.php.cn/link/40216b76ee25df53804927a16af4bc8c Laws。

该研究通过366组不同参数规模和精度的浮点量化训练实验,综合考虑模型大小(N)、训练数据量(D)、指数位(E)、尾数位(M)以及量化放缩因子共享粒度(B),最终得出统一的Scaling Law公式:

图片

基于此公式,研究团队得出以下重要结论:

存在模型效果极限及最佳数据量: 无论精度如何,每个模型都存在一个最佳数据量,超过此量反而会降低效果。最佳性价比精度范围: 在大范围算力下,理论预测的最佳性价比精度位于4-8比特之间。资源受限下的最优配置策略: 该Scaling Laws可指导在不同计算资源下,确定最佳性价比的浮点量化训练精度、模型参数量和训练数据量。

浮点数最佳配比及精细量化

研究团队还深入分析了指数位(E)和尾数位(M)对模型效果的影响,得出其最佳配比规律:

图片

并定量研究了放缩因子共享粒度(B)的影响,发现验证损失与B的对数成正比:

腾讯混元 腾讯混元

腾讯混元大由腾讯研发的大语言模型,具备强大的中文创作能力、逻辑推理能力,以及可靠的任务执行能力。

腾讯混元 65 查看详情 腾讯混元

图片

效果屏障与资源受限下的最优解

该研究发现,由于效果屏障的存在,即使资源无限,训练数据量也不应超过Dcrit:

图片

在资源受限的情况下,通过求解方程组,可以得到最佳性价比精度和参数量N与数据量D的配置策略,以及精度P与参数量N之间的“汇率”关系:

图片图片

图片图片图片图片图片图片图片图片图片图片

这项研究为大模型浮点量化训练提供了重要的理论指导,对降低训练成本和推动大模型应用具有重要意义。 它不仅为优化训练配置提供了依据,也为硬件厂商优化浮点运算能力和研究人员开展相关创新提供了新的方向。

以上就是大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/603610.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月10日 21:43:03
下一篇 2025年11月10日 21:47:35

相关推荐

发表回复

登录后才能评论
关注微信