granite 4.0 tiny preview 是 ibm 发布的 granite 4.0 语言模型系列中最小的模型的预览版本。该模型以其高效的计算能力和紧凑的结构为特色,能够在消费级 gpu 上运行多个长上下文(128k)任务,其性能接近 granite 3.3 2b instruct,同时内存需求减少了约 72%。granite 4.0 tiny preview 采用创新的混合 mamba-2/transformer 架构,结合了 mamba 的高效性和 transformer 的精确性,支持无位置编码(nope),能够处理极长的上下文长度。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Granite 4.0 Tiny Preview 的主要功能包括:
高效运行:在消费级 GPU 上,能够同时运行多个长上下文(128K)任务,适合资源有限的开发者。低内存需求:内存需求减少约 72%,推理时仅激活 1B 参数(总参数 7B),大幅降低硬件要求。长上下文处理:支持无位置编码(NoPE),已验证能处理至少 128K 的长上下文。推理效率:推理时仅激活部分专家,提升效率、减少延迟。
Granite 4.0 Tiny Preview 的技术原理包括:
百川大模型
百川智能公司推出的一系列大型语言模型产品
62 查看详情
混合架构:结合 Mamba 的线性计算复杂度(适合长序列)和 Transformer 的精确自注意力机制。模型中 9 个 Mamba 块对应 1 个 Transformer 块,Mamba 块负责高效捕获全局上下文,Transformer 块用于解析局部上下文。混合专家(MoE):模型包含 7B 参数,分为 64 个专家,推理时仅激活 1B 参数,大幅减少计算资源消耗。无位置编码(NoPE):摒弃传统的位置编码技术,避免因位置编码带来的计算负担和对长序列的限制,保持长上下文性能。长上下文优化:基于 Mamba 的线性扩展能力和紧凑的模型设计,支持极长上下文长度,理论上能扩展至硬件极限。
Granite 4.0 Tiny Preview 的项目地址包括:
项目官网:https://www.php.cn/link/aa2c6857a88b778501aa2d51ae3ccadeHuggingFace 模型库:https://www.php.cn/link/7c581b412887d3ddcf188128ec7d7cd5
Granite 4.0 Tiny Preview 的应用场景包括:
边缘设备部署:适合在资源有限的边缘设备或消费级硬件上运行,用于轻量级文本处理任务。长文本分析:能够处理长上下文(128K tokens),适用于长文本生成、分析或摘要。多任务并行:在同一硬件上同时运行多个实例,适合批量处理或多用户场景。企业应用开发:用于智能客服、文档处理等企业级任务,提供高效的语言模型支持。低成本研发:开源且支持消费级硬件,方便开发者低成本实验和创新。
以上就是Granite 4.0 Tiny Preview— IBM推出的语言模型的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/254557.html
微信扫一扫
支付宝扫一扫