VMware 与 NVIDIA 为企业开启生成式 AI 时代

vmware和 nvidia于今日宣布扩展双方的战略合作伙伴关系,帮助成千上万家使用 vmware 云基础架构的企业做好准备,迎接ai时代的到来。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

VMware 与 NVIDIA 为企业开启生成式 AI 时代

VMware Private AI Foundation with NVIDIA 将使企业能够自定义模型并运行各种生成式 AI 应用,如智能聊天机器人、助手、搜索和摘要等。该平台将作为全集成式解决方案,采用 NVIDIA 提供的生成式 AI 软件和加速计算,基于 VMware Cloud Foundation 构建,并针对 AI 进行了优化。

VMware 首席执行官 Raghu Raghuram 表示:“生成式 AI 与多云可谓珠联璧合。客户的数据无处不在,遍布其数据中心、边缘、云等多处。我们将与 NVIDIA 一同助力企业放心地在数据附近运行生成式 AI 工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”

NVIDIA 创始人兼首席执行官黄仁勋表示:“世界各地的企业都在竞相将生成式 AI 整合到自身业务中。通过与 VMware 扩大合作,我们将能够为金融服务、医疗、制造等领域的成千上万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式 AI 的潜力。”

全栈式计算大幅提升生成式 AI 的性能

为更快实现业务效益,企业希望简化并提高生成式 AI 应用的开发、测试和部署效率。根据麦肯锡的预测,生成式 AI 每年可为全球经济带来多达 4.4 万亿美元的增长(1)。

VMware Private AI Foundation with NVIDIA 将助力企业充分利用这一能力,以定制大语言模型,创建供内部使用的更加安全的私有模型,将生成式 AI 作为一项服务提供给用户,并更加安全地大规模运行推理工作负载。

该平台计划提供的各种集成式 AI 工具,将帮助企业经济高效地运行使用其私有数据训练而成的成熟模型。这一建立在 VMware Cloud Foundation 和 NVIDIA AI Enterprise 软件上的平台预计能够提供以下方面的优势:

• 隐私:将通过能够保护数据隐私并确保访问安全的架构,使客户能够在任何数据所在地轻松运行 AI 服务。

• 选择:从NVIDIA NeMo™到Llama 2等,企业在构建和运行其模型的位置上将拥有广泛的选择空间,包括领先的 OEM 硬件配置以及未来的公有云和服务提供商解决方案。

• 性能:近期的行业基准测试表明,某些用例在 NVIDIA 加速的基础设施上运行的性能与裸机性能相当,甚至超过了裸机性能。

• 数据中心规模:虚拟化环境中的 GPU 扩展优化使 AI 工作负载能够在单个虚拟机和多个节点上扩展到最多 16 颗 vGPU/GPU,从而加快生成式 AI 模型的微调和部署速度。

• 更低的成本:将最大程度地利用 GPU、DPU 和 CPU 的所有计算资源以降低总体成本,并创建可在各个团队间高效共享的池化资源环境。

• 加速存储:VMware vSAN Express Storage Architecture 提供性能经过优化的 NVMe 存储,并支持通过 RDMA 实现 GPUDirect® 存储,从而无需 CPU 即可实现从存储到 GPU 的直接 I/O 传输。

四维时代AI开放平台 四维时代AI开放平台

四维时代AI开放平台

四维时代AI开放平台 66 查看详情 四维时代AI开放平台

• 加速网络:vSphere 与 NVIDIA NVSwitch™ 技术之间的深度集成将进一步确保多 GPU 模型的执行不会出现 GPU 间瓶颈问题。

• 快速部署和价值实现时间:vSphere Deep Learning VM 镜像和镜像库将提供稳定的交钥匙解决方案镜像,该镜像预先安装了各种框架和性能经过优化的库,可实现快速原型开发。

该平台将采用的 NVIDIA NeMo是 NVIDIA AI Enterprise(NVIDIA AI 平台的操作系统)中包含的端到端云原生框架,可助力企业在几乎任何地点构建、自定义和部署生成式 AI 模型。NeMo 集自定义框架、护栏工具包、数据整理工具和预训练模型于一身,使企业能够以一种简单、经济且快速的方式来采用生成式 AI。

为将生成式 AI 部署到生产中,NeMo 使用 TensorRT for Large Language Models(TRT-LLM),以加速并优化 NVIDIA GPU 上最新 LLM 的推理性能。通过 NeMo,VMware Private AI Foundation with NVIDIA 将使企业能够导入自己的数据,并在 VMware 混合云基础架构上构建和运行自定义生成式 AI 模型。

在VMware Explore 2023大会上,NVIDIA与VMware将重点介绍企业内部的开发人员如何使用全新 NVIDIA AI Workbench 提取社区模型(例如 Hugging Face 上提供的 Llama 2),对这些模型进行远程自定义并在VMware环境中部署生产级生成式 AI。

生态圈对 VMware Private AI Foundation With NVIDIA 的广泛支持

VMware Private AI Foundation with NVIDIA将得到戴尔、慧与和联想的支持。这三家企业将率先提供搭载 NVIDIA L40S GPU、NVIDIA BlueField®-3 DPU 和 NVIDIA ConnectX®-7 智能网卡的系统,这些系统将加速企业 LLM 定制和推理工作负载。

相较于 NVIDIA A100 Tensor Core GPU,NVIDIA L40S GPU 可将生成式 AI 的推理性能和训练性能分别提高 1.2 倍和 1.7 倍。

NVIDIA BlueField-3 DPU 可加速、卸载和隔离 GPU 或 CPU 上的巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生 AI 服务。

NVIDIA ConnectX-7 智能网卡可为数据中心基础设施提供智能、加速网络,以承载全球一些要求严苛的 AI 工作负载。

VMware Private AI Foundation with NVIDIA 建立在两家公司长达十年的合作基础之上。双方的联合研发成果优化了 VMware 的云基础架构,使其能够以媲美裸机的性能运行NVIDIA AI Enterprise。VMware Cloud Foundation 所提供的资源及基础架构管理与灵活性将进一步惠及双方共同的客户。

供应情况

VMware 计划于 2024 年初发布 VMware Private AI Foundation with NVIDIA。

以上就是VMware 与 NVIDIA 为企业开启生成式 AI 时代的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/505650.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月8日 22:18:58
下一篇 2025年11月8日 22:29:24

相关推荐

  • HiDream-I1— 智象未来开源的文生图模型

    hidream-i1:一款强大的开源图像生成模型 HiDream-I1是由HiDream.ai团队开发的17亿参数开源图像生成模型,采用MIT许可证,在图像质量和对提示词的理解方面表现卓越。它支持多种风格,包括写实、卡通和艺术风格,广泛应用于艺术创作、商业设计、科研教育以及娱乐媒体等领域。 HiDr…

    2025年12月5日
    000
  • RL 是推理神器?清华上交大最新研究指出:RL 让大模型更会“套公式”、却不会真推理

    清华和上交的最新论文中,上演了一场“学术打假”的戏码。文中研究者们对当前“纯 rl 有利于提升模型推理能力”的主流观点提出了相反的意见。 通过一系列实验,他们证明引入强化学习的模型在某些任务中的表现,竟然不如未使用强化学习的模型。 论文批判性地探讨了 RLVR 在提升 LLM 推理能力方面的作用,尤…

    2025年12月3日 科技
    100
  • StableDiffusion怎样用LoRA定制画风_StableDiffusion用LoRA定制画风【画风定制】

    通过加载LoRA模型可精准控制Stable Diffusion的生成画风,需将.safetensors文件放入models/loras/目录并重启WebUI;2. 在提示词中使用调用,结合正向提示词描述风格、反向提示词排除干扰,并调整权重值(0.5~1.0)优化效果;3. 可引入Textual In…

    2025年12月2日 科技
    000
  • 亚马逊发布 Bedrock,推出多项新功能,助力企业利用生成式AI技术

    ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 亚马逊网络服务公司近日在生态系统中推出了五款全新的生成式人工智能产品,这些产品将帮助企业客户利用自己的数据建立人工智能应用程序,并提供更好的安全性和模型的可及性。 这些新服务的包括全面推出的Am…

    2025年12月2日
    000
  • 最多400万token上下文、推理提速22倍,StreamingLLM火了,已获GitHub 2.5K星

    如果你曾经与任何一款对话式 AI 机器人交流过,你一定会记得一些令人感到非常沮丧的时刻。比如,你在前一天的对话中提到的重要事项,被 AI 完全忘记了…… 这是因为当前的多数 LLM 只能记住有限的上下文,就像为考试而临时抱佛脚的学生,稍加盘问就会「露出马脚」。 如果AI助手能够在聊天中根据上下文参考…

    2025年12月2日 科技
    000
  • PyTorch+昇腾 共促AI生态创新发展

    2023年10月5日(北京时间),pyt%ignore_a_1%rch社区正式发布了2.1版本。经过pytorch社区与昇腾的持续合作和共同努力,pytorch 2.1版本已经同步支持昇腾npu。这意味着开发者可以直接在pytorch 2.1上进行基于昇腾的模型开发。未来,通过持续的社区技术贡献,昇…

    2025年12月2日 科技
    000
  • 选择最适合数据的嵌入模型:OpenAI 和开源多语言嵌入的对比测试

    openai最近宣布推出他们的最新一代嵌入模型embedding v3,他们声称这是性能最出色的嵌入模型,具备更高的多语言性能。这一批模型被划分为两种类型:规模较小的text-embeddings-3-small和更为强大、体积较大的text-embeddings-3-large。 ☞☞☞AI 智能…

    2025年12月2日 科技
    000
  • 谷歌10M上下文窗口正在杀死RAG?被Sora夺走风头的Gemini被低估了?

    要说最近最郁闷的公司,谷歌肯定算得上一个:自家的 Gemini 1.5 刚刚发布,就被 OpenAI 的 Sora 抢尽了风头,堪称 AI 界的「汪峰」。 具体来说,谷歌这次推出的是用于早期测试的 Gemini 1.5 的第一个版本 ——Gemini 1.5 Pro。它是一种中型多模态模型(涉及文本…

    2025年12月2日 科技
    000
  • 马斯克预测 Grok 5 实现通用人工智能概率 10%且还在上升

    近日,特斯拉与 spacex 首席执行官马斯克在社交平台上发表言论,预测其旗下人工智能公司 xai 正在研发的 grok 5 大型语言模型,有 10% 的可能性实现通用人工智能(agi),并指出这一概率正持续攀升。 上个月,马斯克就曾提出 xAI 或将通过 Grok 5 达成 AGI 的目标,此番言…

    2025年12月2日 科技
    000
  • 如何快速部署DeepSeek| 腾讯云TI部署指南

    一、为什么选择deepseek与创想鸟hai的结合 近年来,随着大模型在多种应用场景中的快速发展,AI工程师们迫切需要一种能够快速、高效且成本低廉的方式来部署和管理模型服务。PHP中文网HAI(高性能AI)平台是一个专为高性能计算和深度学习设计的综合解决方案,提供GPU/CPU资源调度、自动化部署以…

    2025年12月2日 科技
    000
  • 腾讯云TI平台极速部署DeepSeek

    前言 DeepSeek的出现,彻底改变了传统的LLM模式,允许我们在本地电脑上部署类似于ChatGPT的大型语言模型,解决了网络和对话次数限制的问题。然而,如果希望随时随地使用DeepSeek云服务,可以考虑利用PHP中文网的HAI或TI平台。 ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, …

    2025年12月2日 科技
    000
  • deepseek官网入口教程_deepseek网页版使用详解

    答案是使用DeepSeek网页版需先访问官网https://chat.deepseek.com,点击【开始对话】登录或注册账号,支持手机号验证码登录和微信扫码;登录后可在主界面输入问题进行对话,使用“深度思考”提升推理能力,“联网搜索”获取实时信息,或通过别针图标上传文档(PDF/Word)提取内容…

    2025年12月2日 科技
    000
  • llama3如何接入实时流数据_llama3实时流数据接入配置与事件驱动机制

    首先配置消息中间件实现异步通信,选择Kafka或RabbitMQ部署并确保SSL加密;其次构建事件监听器,编写消费者脚本订阅主题、解析数据并调用llama3;接着启用流式输出模式,通过–streaming-enable参数和SSE客户端实现低延迟响应;然后集成时间窗口聚合模块,每5秒拼接…

    2025年12月2日 科技
    000
  • MiMo-Embodied— 小米推出的跨领域具身大模型

    mimo-embodied 是小米推出的全球首个开源跨领域具身大模型,首次将自动驾驶与具身智能两大方向深度融合,具备出色的环境感知、任务规划和空间理解能力。该模型基于视觉语言模型(vlm)架构,采用四阶段训练方法——包括具身智能监督微调、自动驾驶监督微调、链式推理微调以及强化学习微调,显著增强了在不…

    2025年12月2日 科技
    000
  • llama3如何执行A/B实验_llama3A/B实验执行框架及变异生成分析

    答案:通过构建可控实验框架,对比不同提示策略与解码参数对Llama3生成效果的影响,评估其在一致性、多样性与准确性上的表现差异。 ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 如果您希望在Llama3模型的输出生成过程中进行A/B实验以评估…

    2025年12月2日 科技
    000
  • llama3如何创建动态可视化_llama3动态可视化创建引擎及交互元素绑定

    首先检查可视化引擎是否正确初始化,需导入VisualizerEngine并以dynamic模式启动渲染循环;接着绑定数据源到图形元素,通过bind_data连接数据流与图表,并设置更新间隔;然后配置交互控件如滑块,将其事件绑定至回调函数以实现参数动态调整;最后在多图层场景中添加图层并建立依赖关系,启…

    2025年12月2日 科技
    000
  • llama3如何构建自动化链_llama3自动化链构建流程及条件分支逻辑

    必须构建具备分支逻辑的自动化链以实现任务衔接与条件判断。首先定义包含输入源、功能模块划分、节点标识及执行顺序的基本结构;接着集成Llama3作为核心处理单元,通过API调用并解析其输出,配置异常处理机制;随后引入条件判断节点,基于Llama3输出的标签或置信度动态路由,支持多层嵌套决策;再通过for…

    2025年12月2日 科技
    000
  • llama3怎么启用多模态融合_llama3多模态融合启用指南及跨媒体处理详解

    要实现Llama3的多模态融合,需集成视觉编码器并调整模型架构。首先选用支持图像理解的Llama3变体如Bunny-Llama-3-8B-V,并从Hugging Face下载模型文件;接着安装transformers和torchvision库,使用CLIPVisionModel和CLIPImageP…

    2025年12月2日 科技
    000
  • llama3如何构建本体知识_llama3本体知识构建框架及实体关系推理

    首先优化提示设计以提升实体识别与关系推理效果,具体包括:一、通过结构化提示和示例引导Llama3抽取实体并标准化类别;二、基于上下文生成三元组并过滤无效关系;三、利用分类指令与层级归纳构建本体层次结构;四、结合已知事实进行上下文推理补全潜在关联;五、通过外部知识库对齐与反馈闭环持续优化系统性能。 ☞…

    2025年12月2日 科技
    100
  • llama3怎么配置联合优化_llama3联合优化配置协议及隐私差分技术

    首先启用差分隐私训练,通过Opacus库注入噪声并设置隐私预算;其次部署联邦学习框架,采用FedAvg聚合本地模型更新;再集成同态加密传输,利用SEAL/TenSEAL加密数据交互;最后实施模型量化与隐私压缩,转换为INT8并导出GGUF格式以兼顾效率与安全。 ☞☞☞AI 智能聊天, 问答助手, A…

    2025年12月2日 科技
    000

发表回复

登录后才能评论
关注微信