阿里通义 qwen 团队通过 hugging face transformers 库的 pr 提交了对 qwen3-next 系列的支持,信息显示将有一款名为 qwen3-next-80b-a3b-instruct 的模型。该系列定位为 “下一代基础模型”,主打极端上下文长度与参数效率。

据介绍,Qwen3-Next 系列模型在架构层面引入了三项核心创新。首先是 Hybrid Attention,它使用 Gated DeltaNet 和 Gated Attention 替代传统注意力机制,以实现高效的长文本建模。其次是 High-Sparsity MoE,将激活比例压缩至 1:50,大幅减少了单个 token 的 FLOPs 而不损失模型容量。最后是 Multi-Token Prediction,在预训练阶段同步预测多个 token,从而提升性能并加速推理。

通义灵码
阿里云出品的一款基于通义大模型的智能编码辅助工具,提供代码智能生成、研发智能问答能力
31 查看详情
此外,模型还辅以 zero-centered、weight-decayed layernorm 等多项稳定化改进,增强了训练的鲁棒性。
源码地址:点击下载
以上就是阿里通义即将发布 Qwen3-Next 系列模型的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/237952.html
微信扫一扫
支付宝扫一扫