让大规模模型近在咫尺,言犀 AI 开发计算平台正式推出

大模型爆火的一年中,生成式 AI 行业最重要的发展瓶颈出现在算力侧。9 月 20 日,红杉美国在文章《生成式 AI 的第二幕》提到,许多生成式人工智能公司在过去一年中很快发现,自身的发展瓶颈不是客户需求,而是 GPU 紧张。漫长的 GPU 等待时间成为常态,以至于一个简单的商业模式出现了:支付订阅费以跳过排队,而获得更好的模型。
在大模型的训练中,参数规模的指数级增加,带来了训练成本的急剧攀升。对于紧张的 GPU 资源,尽可能地发挥出硬件的性能,提高训练效率,变成一件更加重要的事情。
AI 开发计算平台是一个重要的解决方案。利用 AI 开发计算平台,一个大模型开发者可以一站式完成覆盖数据准备、模型开发、模型训练及模型部署的 AI 开发全流程。除了能够降低大模型开发的门槛,AI 计算平台通过提供训练优化以及推理管理服务,让计算资源变得更加高效。
9 月 26 日,根据京东云在西安城市大会上对言犀 AI 开发计算平台的介绍,使用京东云所推出的言犀 AI 开发计算平台,不到一周时间,即可完成从数据准备、模型训练、到模型部署的全流程;之前需要 10 余人的科学家团队工作,现在只需要 1-2 个算法人员;通过平台模型加速工具优化,使用团队能够节约 90% 的推理成本。
更重要的是,在大模型快速走入千行百业的当下,言犀 AI 开发计算平台通过对大模型算法开发者和应用开发者同时赋能,对于应用开发者还能够使用低代码的形式实现大模型产品开发。产业大模型开发变得门槛更低,利用和改造大模型,将更加简单了。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

让大规模模型近在咫尺,言犀 ai 开发计算平台正式推出

大模型时代,需要新的数字基础设施
对一个大模型开发者来说,如果没有 AI 开发计算平台,意味着:在算法和应用的开发过程中,需要自己搭建底层 GPU 算力资源的调度、存储网络、模型管控等一系列体系,整体开发过程将非常原始且门槛非常高。
而对于一个正在在内部推行大模型行业应用的公司来说,这意味着成本的迅速上升,以及训练效率的难以保证。
一年时间过去,金融、营销、汽车、内容、法律、办公等行业正在积极与大模型做结合。大模型的强大势能成为许多行业里重构竞争格局的重要影响因素。更快地找到自己业务与大模型结合的场景,并高效地落地执行,成为竞争的关键。
但发展行业模型并不是一件顺利的事,如今仍然面临一系列的挑战和机遇:
数据上,不同行业的数据呈现不同的集中度和分散状态,数据准备周期和处理难度各有千秋;海量多模态的数据在训练时如何高效加载,是一个必须要解决的问题。
其次,大模型训练时环境的稳定性,故障断点恢复及接续训练的处理,对训练效率产生很大影响;在训练和部署环节,如何高效的进行算力调度,提升算力资源利用率,也是企业必须考虑的成本问题。
京东云在西安城市大会上的分享称,在过去一段时间的实践中,京东云发现,产业大模型的挑战不仅仅在于技术本身,如何将技术与行业应用场景相结合,如何平衡成本、效率、体验,才是大模型行业落地的真正挑战。
回归到最基础的开发层面,平衡好成本、效率、体验,意味着需要重新解决并优化一些问题。
京东云 IaaS 产品研发部负责人龚义成在采访中进一步解释称,大模型时代对开发基础设施的要求与传统已经产生了巨大的差别。在效率层面上,过去 AI 开发过程中,即使是相对低成本一些的 GPU 也可以完成很多相关工作,但是在大模型场景下,AI 开发已经严重依赖 A100、A800 等高成本 GPU,对 GPU 的算力和性能要求变得更高,成本也随之快速攀升。
“因此,在高昂的成本下,如何把这些硬件性能压榨到极致,对于大模型开发的成本效率就变得尤为重要。”
在过往 AI 的开发中,数据吞吐的并发度并没有像大模型这么大,因为它需要许多 GPU 同时工作,因此即使本身数据量不大,但大模型的并发读取以及可能带来的延迟问题,对高性能的存储提出了新的要求,过往的存储机制通常无法满足。
龚义成还提到,由于数据存取过程中,如果延迟越低,那么整个模型的效率就会更高。如果利用自研的智能芯片,就可完全采用低延迟的网络,那么就能帮助整个模型训练效率的提升。
另外,在规模层面上,千亿参数以上的大模型训练基本都要用到千卡以上进行训练。龚义成分享称,这在以往的 AI 开发中是极其少见的,因此这对开发提出了很高且全新的经验要求,对应的开发基础设施也完全不一样。
对于想要提高大模型开发效率,帮助大模型更好得在行业中落地的公司来说,一套新的基础设施成为了必要。
京东云发布言犀 AI 计算平台
9 月 26 日,京东在西安城市大会上正式对外发布了言犀 AI 开发计算平台,产品覆盖了数据准备、模型开发、模型训练及模型部署的 AI 开发全流程能力,预置了主流开源大模型以及部分商业化大模型,以及一百多种推理工具和框架,能够有效降低大模型开发门槛和成本。

让大规模模型近在咫尺,言犀 AI 开发计算平台正式推出

千帆大模型平台 千帆大模型平台

面向企业开发者的一站式大模型开发及服务运行平台

千帆大模型平台 0 查看详情 千帆大模型平台

在性能提升方面,言犀 AI 开发计算平台在算力和存储上做了许多技术突破。在底层,平台能够进一步对 GPU 算力进行整体调度和统筹,提高对平台的底层资源使用的调度效率。
根据京东云方面的分享,算力方面京东云将在平台中提供第五代的云主机,各种高性能的产品形态,可以提供算力最大可以支持数十万的 GPU 节点规模。网络层面则通过自研 RDMA 拥塞算法,全局调控 RDMA 网络流量路径,不同 GPU 节点最大支持 3.2 Tbps RDMA 网络带宽,传输时延低至 2 us 左右作为基础能力支撑。
在存储方面,针对大模型训练数据吞吐量大的情况,京东云的云海分布式存储,能够支持大模型海量数据高并发集群要求,可以做到千万级 IOPS,延迟低至百微秒。配合新的存算分离的架构,云海可为客户节省整体基础设施成本超 30%,现已在高性能计算、AI 训练等新兴场景以及音视频存储、数据报表等传统场景广泛应用。
除了能够优化底层资源,言犀 AI 计算平台能够帮助大模型开发者提高全链路效率提高,高效实现数据处理、模型开发、训练、部署、评测以及训练推理优化、模型安全等工作:
在数据管理环节,言犀能够通过智能标注模型、数据增强模型、数据转换工具集,帮助模型开发者实现数据导入、清洗、标注以及增强所有环节,支持多种文件格式的数据导入和智能解析、提供自动、半自动的数据标注能力。帮助解决数据环节存储分散、数据格式不一、数据质量参差不齐、人工标注数据效率低等问题。
在分布式训练环节,言犀平台适配国产硬件,支持 HPC,集成高性能文件系统;提供资源的分配调度策略,保证硬件资源被充分利用;提供统一的交互接口,简化训练任务的管理。帮助解决网络和算法的复杂度快速增长,带来计算资源的稀缺和浪费;HPC、高性能计算、高性能文件系统、异构硬件的使用和适配困难;模型训练的多样性,训练学习成本提高等问题。
无代码开发能力方面,则进一步简化产大模型开发过程。用户能够直接选择平台内置的大模型,上传数据后,之后继续选择训练方式,指定超参和 AutoML 两种无代码训练方式之一后,得到一个微调模型或者应用。
在应用层,言犀平台内置了问答开发、文档分析开发、插件开发等常用应用场景的无代码开发工具。选择模型、知识库、Prompt 模版以及开发平台后,一键部署。并且能够支持监控、追踪测试以及测试评估。
整体上,言犀 AI 开发计算平台能够满足不同专业程度的用户的使用需求。对于大模型算法开发者来说,能够全流程支持从数据准备、选择模型、代码调优、部署发布等工作。对于应用层开发者,能够利用无代码的方式,可视化点按选择模型、上传数据、配置参数,无需写代码即可实现任务引发,开始模型任务的训练,进而降低门槛。
在引入模型方面,目前平台已经内置了言犀、星火、LLama2 等商业模型以及开源模型。龚义成表示,言犀对模型的选择思路更倾向于重视质量多过数量:选择各个技术领域相对优秀的商业模型,以及一些围绕基础模型打造的行业模型,避免用户陷入选择焦虑。
并且,之后言犀将重点引入京东基于基础模型打造的行业模型应用,如零售、健康场景以及在实际上已经实现规模化落地的行业应用模型放到平台上,帮助平台的开发者来推进相关业务的落地。
目前言犀共有三种方式交付方式:一是 MaaS 服务形式,开发者开发者可以通过 API 采用按量付费、成本经济的方式探索和使用大模型;二是,公有云 SaaS 版,用户可以通过平台提供的一站式模型开发、训练和部署的能力,基于公有云资源弹性供应的优势,以最小化的成本启动产业大模型的开发和部署。三是私有化交付版本,满足对数据安全有更多特殊要求的客户,数据完全本地化。
未来,言犀还将继续升级平台能力,在国产硬件覆盖、模型生态合作、插件开发、应用评测服务、一体机交付、Agent 开发服务等方面继续完善,体系化地帮助解决产业大模型的开发和实施困难、大模型应用的开发困难、模型训练推理成本昂贵、模型和应用获取困难、高性能计算、高性能文件、异构硬件的使用和适配困难等问题。
推动大模型在千行百业落地
在西安城市大会上,京东集团技术委员会主席、京东云事业部总裁曹鹏在演讲中提到,在大模型逐渐向产业落地的过程中,希望做到提升更好的产业效率、产生更大的产业价值、能够在更多的场景里复制,实质上是对模型的训练过程以及基础设施提出了更高的要求:模型需要更加易用、要做到更低门槛更低成本、并且可以灵活调用算力。
AI 开发计算平台是解决这些问题的重要方案之一,一个高性能且易用的 AI 开发计算平台能够让更多行业方低成本地参与到大模型行业建设当中来,激发更多产业大模型的出现,加速大模型在千行百业的落地。
在实际的市场中,龚义成称,行业客户在选择 AI 计算平台时,主要会考虑的亮点分别是:行业理解以及平台效率。相比于其他 AI 计算平台,言犀 AI 开发计算平台除了能够提高极致的性能,还能够结合京东长期以来在零售、金融、物流、健康等优势场景的经验,拥有更专业的产业大模型选择。
在言犀 AI 计算平台的模型生态中,除了内置优秀商业模型和开源模型,为了进一步降低门槛,言犀 AI 计算平台还会为这些大模型补充进一步的增强能力,比如中文能力、数学能力等等,让用户能够选择更易用专业的大模型。
更重要的是,由于言犀 AI 开发计算平台同时面向大模型应用开发者,支持无代码的方式构建专有模型,除了上述基础模型外,在言犀平台还将为用户提供更多应用场景的专有模型,供用户快速在自己的行业落地。
目前,言犀平台所提供的应用场景专有模型主要包括问答开发以及文档分析开发等成熟高频场景。这些应用京东在自身的优势领域已被多次验证,结合大模型能够快速提升效率。
以对话工具为例,2021 年起,名创优品和京东云达成合作,将京东云旗下言犀在客户服务方面的系列技术产品应用在名创优品,涵盖名创优品门店客服团队、用户运营团队、IT 服务运维团队。2022 年 4 月,言犀系列产品陆续上线,包含了在线客服机器人、语音应答机器人、语音外呼机器人、智能质检、智能知识库等一系列智能化产品,带来了显著的成效。 
反馈数据显示,目前言犀系列产品日均咨询服务量近 10000 次,其中在线客服机器人应答准确率超过 97%,独立接待率超过 70%,降低 40% 的服务成本;语音应答机器人应答准确率超过 93%,独立处理了 46。1% 的客户问题;智能质检累计完成数十万次,发现并处理近 3000 服务风险问题,用户满意度提升 20%;智能知识库内容涵盖了「名创优品」品牌下约 8800 个核心 SKU,以及「TOP TOY」品牌下约 4600 个 SKU。 
在大模型的落地实践进程已经到了从单点向外普及的阶段。在产业中,还有许多类似名创优品的产业公司,对话机器人场景能够为他们带来更大的价值。而言犀 AI 开发计算平台的推出,从底层算力、数据管理、无代码应用等全链路对产业公司的赋能,将为这些公司提供一个更更低门槛更低成本、更短训练周期的大模型产业化方案。可以预见,之后类似名创优品的案例将会出现得更加频繁。
此外,京东云方面强调,相较于其他其他竞品,京东言犀 AI 计算平台采用的低代码方面进一步拉低了应用开发者的开发门槛,且高性能存储方面完全自主、整体技术体系完整适配度高且性能效率高。
随着新型数字基础设施的普及,大模型在千行百业的落地将变得更加快速,成本效率与创新的不可能三角将拥有更开阔的想象空间。

以上就是让大规模模型近在咫尺,言犀 AI 开发计算平台正式推出的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/489415.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月8日 15:00:06
下一篇 2025年11月8日 15:04:06

相关推荐

  • HiDream-I1— 智象未来开源的文生图模型

    hidream-i1:一款强大的开源图像生成模型 HiDream-I1是由HiDream.ai团队开发的17亿参数开源图像生成模型,采用MIT许可证,在图像质量和对提示词的理解方面表现卓越。它支持多种风格,包括写实、卡通和艺术风格,广泛应用于艺术创作、商业设计、科研教育以及娱乐媒体等领域。 HiDr…

    2025年12月5日
    000
  • RL 是推理神器?清华上交大最新研究指出:RL 让大模型更会“套公式”、却不会真推理

    清华和上交的最新论文中,上演了一场“学术打假”的戏码。文中研究者们对当前“纯 rl 有利于提升模型推理能力”的主流观点提出了相反的意见。 通过一系列实验,他们证明引入强化学习的模型在某些任务中的表现,竟然不如未使用强化学习的模型。 论文批判性地探讨了 RLVR 在提升 LLM 推理能力方面的作用,尤…

    2025年12月3日 科技
    100
  • 亚马逊发布 Bedrock,推出多项新功能,助力企业利用生成式AI技术

    ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 亚马逊网络服务公司近日在生态系统中推出了五款全新的生成式人工智能产品,这些产品将帮助企业客户利用自己的数据建立人工智能应用程序,并提供更好的安全性和模型的可及性。 这些新服务的包括全面推出的Am…

    2025年12月2日
    000
  • 语言模型有重大缺陷,知识推演竟然是老大难

    惊人发现:大模型在知识推演上存在严重缺陷。 灵活运用知识是智慧的关键。人脑可以快速处理知识,如快速回答 “《静夜思》中有几个月字”。那么,大模型是否能进行类似操作?已知大模型可以通过思维链(Chain of Thought / CoT),先默写《静夜思》,再根据默写内容回答问题,但这会使生成的文字冗…

    2025年12月2日 科技
    100
  • ICCV 2023揭晓:ControlNet、SAM等热门论文斩获奖项

    在法国巴黎举行了国际计算机视觉大会ICCV(International Conference on Computer Vision)本周开幕 作为全球计算机视觉领域顶级的学术会议,ICCV 每两年召开一次。 ICCV的热度一直以来都与CVPR不相上下,屡创新高 在今天的开幕式上,ICCV官方公布了今…

    2025年12月2日 科技
    000
  • 深度学习巨头DeepMind在ImageNet数据集上取得突破性进展,为机器人研究带来新的里程碑

    机器人技术为什么远远落后于自然语言处理(nlp)、视觉和其他人工智能领域?除了其他困难外,数据短缺是主要原因。为了解决这个问题,谷歌 deepmind 联合其他机构推出了开放式 x-embodiment 数据集,并成功训练出了更强大的 rt-x 模型 在大模型不断取得突破的 2023,把大模型当做大…

    2025年12月2日 科技
    000
  • 最多400万token上下文、推理提速22倍,StreamingLLM火了,已获GitHub 2.5K星

    如果你曾经与任何一款对话式 AI 机器人交流过,你一定会记得一些令人感到非常沮丧的时刻。比如,你在前一天的对话中提到的重要事项,被 AI 完全忘记了…… 这是因为当前的多数 LLM 只能记住有限的上下文,就像为考试而临时抱佛脚的学生,稍加盘问就会「露出马脚」。 如果AI助手能够在聊天中根据上下文参考…

    2025年12月2日 科技
    000
  • PyTorch+昇腾 共促AI生态创新发展

    2023年10月5日(北京时间),pyt%ignore_a_1%rch社区正式发布了2.1版本。经过pytorch社区与昇腾的持续合作和共同努力,pytorch 2.1版本已经同步支持昇腾npu。这意味着开发者可以直接在pytorch 2.1上进行基于昇腾的模型开发。未来,通过持续的社区技术贡献,昇…

    2025年12月2日 科技
    100
  • 毫末龙年春节智驾数据发布:智驾里程994万公里,小魔驼配送近5000单

    2月24日,毫末智行公布了2024年%ign%ignore_a_1%re_a_1%春节数据报告。自2024年2月10日至2月23日,用户开启毫末辅助驾驶的行驶总里程突破994万公里,同比2023年春节激增283.4%。在末端物流自动配送领域,小魔驼配送订单比2023年春节同比增长9.2%。截止202…

    2025年12月2日 科技
    000
  • 选择最适合数据的嵌入模型:OpenAI 和开源多语言嵌入的对比测试

    openai最近宣布推出他们的最新一代嵌入模型embedding v3,他们声称这是性能最出色的嵌入模型,具备更高的多语言性能。这一批模型被划分为两种类型:规模较小的text-embeddings-3-small和更为强大、体积较大的text-embeddings-3-large。 ☞☞☞AI 智能…

    2025年12月2日 科技
    000
  • 完善AI软硬件生态,联想集团在MWC2024发布最新AI PC

    2月26日,在2024年世界移动通信大会(mwc 2024)上,联想集团发布全新thinkpad和thinkbook商务ai pc,展现了在全球ai pc领域的领导力。除硬件产品之外,联想还发布新的软件解决方案,包括lenovo identity advisor身份顾问和smart connect智…

    2025年12月2日 科技
    000
  • 谷歌10M上下文窗口正在杀死RAG?被Sora夺走风头的Gemini被低估了?

    要说最近最郁闷的公司,谷歌肯定算得上一个:自家的 Gemini 1.5 刚刚发布,就被 OpenAI 的 Sora 抢尽了风头,堪称 AI 界的「汪峰」。 具体来说,谷歌这次推出的是用于早期测试的 Gemini 1.5 的第一个版本 ——Gemini 1.5 Pro。它是一种中型多模态模型(涉及文本…

    2025年12月2日 科技
    200
  • 马斯克预测 Grok 5 实现通用人工智能概率 10%且还在上升

    近日,特斯拉与 spacex 首席执行官马斯克在社交平台上发表言论,预测其旗下人工智能公司 xai 正在研发的 grok 5 大型语言模型,有 10% 的可能性实现通用人工智能(agi),并指出这一概率正持续攀升。 上个月,马斯克就曾提出 xAI 或将通过 Grok 5 达成 AGI 的目标,此番言…

    2025年12月2日 科技
    000
  • 如何快速部署DeepSeek| 腾讯云TI部署指南

    一、为什么选择deepseek与创想鸟hai的结合 近年来,随着大模型在多种应用场景中的快速发展,AI工程师们迫切需要一种能够快速、高效且成本低廉的方式来部署和管理模型服务。PHP中文网HAI(高性能AI)平台是一个专为高性能计算和深度学习设计的综合解决方案,提供GPU/CPU资源调度、自动化部署以…

    2025年12月2日 科技
    300
  • 腾讯云TI平台极速部署DeepSeek

    前言 DeepSeek的出现,彻底改变了传统的LLM模式,允许我们在本地电脑上部署类似于ChatGPT的大型语言模型,解决了网络和对话次数限制的问题。然而,如果希望随时随地使用DeepSeek云服务,可以考虑利用PHP中文网的HAI或TI平台。 ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, …

    2025年12月2日 科技
    000
  • deepseek官网入口教程_deepseek网页版使用详解

    答案是使用DeepSeek网页版需先访问官网https://chat.deepseek.com,点击【开始对话】登录或注册账号,支持手机号验证码登录和微信扫码;登录后可在主界面输入问题进行对话,使用“深度思考”提升推理能力,“联网搜索”获取实时信息,或通过别针图标上传文档(PDF/Word)提取内容…

    2025年12月2日 科技
    000
  • llama3如何接入实时流数据_llama3实时流数据接入配置与事件驱动机制

    首先配置消息中间件实现异步通信,选择Kafka或RabbitMQ部署并确保SSL加密;其次构建事件监听器,编写消费者脚本订阅主题、解析数据并调用llama3;接着启用流式输出模式,通过–streaming-enable参数和SSE客户端实现低延迟响应;然后集成时间窗口聚合模块,每5秒拼接…

    2025年12月2日 科技
    000
  • llama3如何执行A/B实验_llama3A/B实验执行框架及变异生成分析

    答案:通过构建可控实验框架,对比不同提示策略与解码参数对Llama3生成效果的影响,评估其在一致性、多样性与准确性上的表现差异。 ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 如果您希望在Llama3模型的输出生成过程中进行A/B实验以评估…

    2025年12月2日 科技
    000
  • llama3如何创建动态可视化_llama3动态可视化创建引擎及交互元素绑定

    首先检查可视化引擎是否正确初始化,需导入VisualizerEngine并以dynamic模式启动渲染循环;接着绑定数据源到图形元素,通过bind_data连接数据流与图表,并设置更新间隔;然后配置交互控件如滑块,将其事件绑定至回调函数以实现参数动态调整;最后在多图层场景中添加图层并建立依赖关系,启…

    2025年12月2日 科技
    000
  • llama3如何构建自动化链_llama3自动化链构建流程及条件分支逻辑

    必须构建具备分支逻辑的自动化链以实现任务衔接与条件判断。首先定义包含输入源、功能模块划分、节点标识及执行顺序的基本结构;接着集成Llama3作为核心处理单元,通过API调用并解析其输出,配置异常处理机制;随后引入条件判断节点,基于Llama3输出的标签或置信度动态路由,支持多层嵌套决策;再通过for…

    2025年12月2日 科技
    000

发表回复

登录后才能评论
关注微信