随着人工智能技术的迅猛进步,大模型的参数规模持续攀升。moe稀疏大模型因其在提升模型容量的同时能保持较低的训练计算开销,成为当前研究的焦点。然而,推理阶段的性能瓶颈仍严重制约其广泛应用。在此背景下,中国科学技术大学人工智能与数据科学学院执行院长张燕咏带领团队,依托中国科学技术大学 鲲鹏昇腾科教创新卓越中心的强大算力支持,成功构建了一套基于专家选择分布预测的专家负载均衡与all2all通信优化框架。
该研究聚焦于两大核心挑战——专家负载不均衡以及高昂的计算与通信开销,并通过“三步策略”实现了推理效率的显著提升。为实现更高效的资源分配,团队首先深入探究了MoE模型中token选择专家的规律。通过对相似token在MoE层中专家选择行为的特征提取与聚类分析,成功预测出token对特定专家的路径偏好。
第二步旨在缓解推理过程中专家负载不均的问题。基于对token专家选择偏好的预测结果,团队能够准确评估各专家的访问频率与重要性,进而采取高频专家复制、低频非关键专家替换等策略,实现动态负载均衡。在此过程中,昇腾推理引擎MindIE所提供的性能分析工具发挥了关键作用——其可视化能力有效支持了专家负载的实时监控与访问频次统计,为优化决策提供了可靠的数据支撑。
第三步聚焦于降低分布式环境下的通信延迟。团队依据各计算节点上数据对专家选择的预测结果,提前将专家部署至最常访问的节点,并将需频繁交互的专家尽可能安排在同一计算单元内,从而缩短数据与专家之间的物理距离。结合昇腾384超节点所采用的高速总线互联架构,显著减少了跨节点与跨单元的通信开销。
得益于上述技术突破,项目取得了显著成效。在多种规模与结构的MoE模型测试中,新框架在推理时间、all2all通信耗时、MoE层处理时间及负载不均度等关键指标上,相较现有主流方案整体提升超过30%;在多卡复杂场景下,前三项指标提升达30%,推理时间优化20%。
此次研究成果不仅为开发者利用昇腾平台优化MoE稀疏大模型推理性能提供了宝贵实践路径,也有力推动了该类模型在实际场景中的快速落地。未来,中国科学技术大学 鲲鹏昇腾科教创新卓越中心将继续深化产教融合与协同创新,依托昇腾全栈软硬件生态,在前沿AI模型优化领域持续攻关,助力我国自主可控的人工智能发展战略和数字经济高质量发展。

以上就是昇腾助力中科大团队实现MoE 稀疏大模型并行推理提速超30%的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/146888.html
微信扫一扫
支付宝扫一扫