蚂蚁集团百灵团队近日正式发布了ling 2.0系列的首个开源模型——ling-mini-2.0。该模型采用创新的moe架构,激活比例仅为1/32,总参数量达16b,但在处理每个token时仅激活1.4b参数(非embedding部分为789m),实现了高效计算与性能的平衡。
Ling-mini-2.0经过超过20万亿token数据的训练,并通过多阶段监督微调和强化学习技术,显著提升了复杂推理和指令遵循能力,整体表现可媲美7–8B级别的dense模型。
在多项权威评测中,该模型展现出卓越性能,在LiveCodeBench、CodeForces、AIME 2025、HMMT 2025、MMLU-Pro、Humanity’s Last Exam等通用与专业推理基准上,均优于同规模的dense模型以及更大规模的MoE模型。

得益于其稀疏激活设计,Ling-mini-2.0在H20硬件上的部署效率极为出色:在2000 token以内的问答场景中,生成速度可达300+ token/s,相较8B dense模型提速超过2倍。
百灵大模型
蚂蚁集团自研的多模态AI大模型系列
177 查看详情

结合YaRN技术,模型上下文长度可外推至128K,在长序列处理任务中,相对加速比最高提升逾7倍,大幅增强其在实际应用中的灵活性与响应能力。
HuggingFace Space:https://www.php.cn/link/3a03f9afd886282d8d1de4e0af465056
HuggingFace:https://www.php.cn/link/8ac8abb13b9fe96f24fe2cab11a18fc2
ModelScope:https://www.php.cn/link/a92df7cbfdddcc938abc806992026a19
GitHub:https://www.php.cn/link/857cd81e6a7d216eeaf1946a803a7d5e
以上就是蚂蚁集团百灵团队正式开源 Ling-mini-2.0的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/238046.html
微信扫一扫
支付宝扫一扫