通义千问开源320亿参数模型,已实现7款大语言模型全开源

4月7日消息,阿里云通知千问开源320亿参数模型qwen1.5-32b,可最大限度兼顾性能、效率和内存占用的平衡,为企业和开发者提供更高性价比的模型选择。目前,通知千问共开源6款大语言模型,在海内外开源社区累计下载量突破300万。

通用问题千问此前已开发了5亿、18亿、40亿、70亿、140亿和720亿参数模型,并均已升级至1.5版本。其中,几款小尺寸模型可便捷地部署在端侧,720亿参数模型则拥有业界领先的性能,多次登上HuggingFace等模型榜单。此次开源的320亿参数模型,将在性能、效率和内存占用之间实现更理想的平衡。例如,相比于相14B模型,32B在智能体场景下能力更强;相比于72B,32B的推理成本更低。通用问题团队希望32B开源模型能为下游应用提供更优的解决方案。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

通义千问开源320亿参数模型,已实现7款大语言模型全开源

基础能力方面,通过千问320亿参数模型在MMLU、GSM8K、HumanEval、BBH等多个测试中表现优异,性能接近千问720亿参数模型,远超其300亿级参数模型。

通义千问开源320亿参数模型,已实现7款大语言模型全开源

Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench评测得分超过8分,与Qwen1.5-72B-Chat之间的差距相对较小。

ima.copilot ima.copilot

腾讯大混元模型推出的智能工作台产品,提供知识库管理、AI问答、智能写作等功能

ima.copilot 317 查看详情 ima.copilot

通义千问开源320亿参数模型,已实现7款大语言模型全开源

有着丰富语言能力的人,在选择了包括阿拉伯语、西班牙语、法语、日语、韩语等在内的12种语言后,可以在考试、理解、数学及翻译等多个领域做了评估。Qwen1.5-32B的多语言能力仅仅限于通用千问720亿参数模型。

通义千问开源320亿参数模型,已实现7款大语言模型全开源

以上就是通义千问开源320亿参数模型,已实现7款大语言模型全开源的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/847153.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月27日 15:53:40
下一篇 2025年11月27日 15:56:37

相关推荐

发表回复

登录后才能评论
关注微信