google传出正积极与社群巨头meta及多家大型金融机构接洽,希望推动其自主研发的ai晶片tpu(tensor processing unit)部署至客户自有资料中心,借此在ai晶片市场进一步挑战辉达(nvidia)的主导地位。
据最新消息指出,Google正探讨两种合作模式:一是在企业自建资料中心内直接导入Google设计的TPU硬件;二是通过公有云服务租用TPU运算资源。若此计划顺利落地,客户将可在本地机房运行AI工作负载,同时结合Google Cloud进行混合部署,实现效能、资安防护与法规合规之间的平衡。

延伸阅读:
川普启动AI「创世纪任务」 动员最大科学资源堪比登月计画
市场评估,这项布局潜在商机庞大,其中与Meta的合作案规模有望达到数十亿美元,合约跨度长达数年。此举也显示大型科技公司正寻求分散AI晶片供应来源,降低对单一供应商依赖。对金融机构与高频交易业者而言,在内部机房部署TPU不仅能保有敏感资料的掌控权,还可引入先进的生成式AI模型分析能力,减少完全仰赖外部云端平台所带来的风险疑虑。
腾讯交互翻译
腾讯AI Lab发布的一款AI辅助翻译产品
183 查看详情
近年来AI热潮带动资料中心对高效能GPU需求激增,辉达凭借H100等产品,在云端服务商与大型网络平台中占据关键角色。Google过去除在自家服务如搜寻、YouTube与Gemini广泛应用TPU外,也在Google Cloud提供辉达GPU服务,采取双轨并行策略。如今进一步推动TPU进入客户私有机房,被视为是更主动出击、争夺AI运算市场主导权的重要举措。
一旦大型企业开始采用多源AI晶片架构,现行由辉达主导的生态体系可能逐步松动,进而提升云端服务商与终端用户在技术选型与成本议价上的空间。研究机构预测,未来几年主要云端业者的AI相关资本支出将持续攀升,也将激励更多厂商投入自研或客制化AI晶片开发,促使AI运算架构朝向多元化发展。
与此同时,Google近期宣布推出第七代自研TPU「Ironwood」,将率先于Google Cloud上线,专为生成式AI与大规模模型训练等高负载任务优化。包括Google自身的Gemini、影像生成模型Veo与Imagen,以及新创Anthropic的AI模型,都将运行于新一代TPU之上,并借助大规模TPU丛集(superpod)应对日益增长的运算需求。
由此可见,Google不仅持续强化云端端的TPU服务能力,更积极拓展TPU在企业本地环境的应用场景,其AI晶片战略已从内部使用转向对外输出与生态系建构。后续Meta与金融机构的合作进展,以及其他云端业者与晶片开发商的应对动作,势将牵动全球AI晶片产业格局与供应链演变。
以上就是Google打算卖AI晶片给Meta 分散风险、降低辉达依赖的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/902514.html
微信扫一扫
支付宝扫一扫