11月9日消息,长期以来,nvidia依靠其强大的cuda生态在人工智能领域占据主导地位,而诸如amd的rocm等替代平台则发展相对滞后。然而,这一局面正面临新的挑战者——微软。
据一位级别较高的微软内部人士透露,公司已研发出一套“工具包”,可将原本基于NVIDIA CUDA架构训练的AI模型进行转换或翻译,使其能够在AMD GPU上运行,并兼容ROCm平台。
该举措意在打破CUDA长期以来形成的“生态壁垒”,为微软不断扩大的AI推理任务寻找更具成本优势的硬件解决方案。
推动这一战略的核心原因在于,微软观察到AI推理需求正迅速攀升,而在执行此类任务时,相较于价格高昂的NVIDIA显卡,AMD的AI芯片展现出更高的性价比。
通过软件层面的转换技术,微软有望充分利用AMD GPU的成本与能效优势,从而降低大规模部署中的运营开支。
Anyword
AI文案写作助手和文本生成器,具有可预测结果的文案 AI
153 查看详情
有分析认为,该工具包可能采用了类似ZLUDA的技术路径,即构建一个运行时兼容层,能够在不更改原始代码的前提下,将CUDA API调用动态翻译为ROCm可识别的指令。
但受限于ROCm生态系统目前仍不够完善,部分CUDA功能尚无对应实现,因此在转换过程中可能出现性能损失,这在对稳定性与效率要求极高的数据中心环境中仍是亟待解决的问题。

以上就是微软开发工具包打破NVIDIA护城河!AMD GPU可运行CUDA代码的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/868827.html
微信扫一扫
支付宝扫一扫