苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

偷懒才能更好地工作。

Llama 3.1 刚刚发布,你是否已经尝试了呢?就算你的个人计算机是最近的顶尖配置,运行其中最小的 8B 版本可能也依然会有明显延迟。为了提升模型的推理效率,研究者想出了多种多样的方法,但其中很多都会让模型牺牲一些准确度。

近日,苹果和 Meta AI 的一个研究团队提出了一种新方法,可在保证准确度不明显下降的同时,将 Llama 2 预填充阶段的推理速度提升到原来的 2 倍以上,这或许能为 Llama 3.1 的加速提供一些启发。他们把这种方法称为 LazyLLM,即懒惰大型语言模型。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

论文标题:LazyLLM: Dynamic Token Pruning for Efficient Long Context LLM Inference

论文地址:https://arxiv.org/abs/2407.14057

那么他们是怎么让 LLM 偷懒的呢?要理解他们的方法,我们首先需要知道标准的基于 prompt 的 LLM 推理过程是怎样的。简单来说,该过程分为两个阶段:预填充和解码,如图 1 所示。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

在预填充阶段,模型计算和保存 prompt 中每个 token 的 KV 缓存,并预测首个 token。我们将预填充阶段所耗费的时间称为「首个 token 时间(TTFT)」。

预填充阶段之后是解码阶段。在这个阶段,模型再次使用缓存的 KV 来迭代式地解码下一个 token,直到满足停止标准。

在预填充阶段,所有 Transformer 层都会使用 prompt 中的所有 token。当 prompt 较长时,TTFT 可能很慢,因为当前最佳的基于 Transformer 的 LLM 既深又宽,并且计算注意力的成本会随 prompt 中 token 数量而呈二次增长。举个例子,Llama 2(7B 版本)堆叠了 32 层 Transformer,模型维度为 4096。在这种情况下,TTFT 需要的 walltime 是每个后续解码步骤的 21 倍,在 LongBench 基准上这些时间大约占用了总生成时间的 23%。

因此,要让 LLM 推理高效进行,优化 TTFT 是非常关键的步骤。

尽管 LLM 推理优化方面是一个活跃的研究领域,但很多方法关注的重心都是提升解码阶段的推理速度。研究者很少关注 TTFT 的改进。一些基于压缩的研究成果可通过减少 LLM 的大小隐式地提升 TTFT。

另一个研究方向是在静态的 Transformer 架构下实现对 TTFT 的改进。对于这个研究方向,很自然会引出一个问题:在生成首个 token 时,所有 prompt token 都必不可少吗?

图 2 给出了在 LongBench 基准上的 LLM 分析结果。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

可以看到,对于首个生成的 token,输入 token 的注意力分数非常稀疏,这说明输入 prompt 中的许多 token 是多余的,就算移除也不会影响到下一 token 预测。这一观察正是该团队提出 LazyLLM 的基础。

LazyLLM 的优势包括适用范围广、无需训练、效果好。图 3 对比了标准 LLM 与 LazyLLM。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

LazyLLM

图 4 展示了 LazyLLM 的整体框架。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

从完整上下文开始,LazyLLM 会逐渐对 token 进行剪枝,从而逐渐减少得到最终模型所使用的计算数量。请注意,LazyLLM 允许模型在不同的生成步骤选取不同的 token 子集,即便它们中的一些可能在之前的步骤中被剪枝了。相比于静态剪枝(一次性对所有 token 进行剪枝),动态剪枝会在每个生成步骤对下一 token 预测进行优化,这有助于维持模型的性能表现。

渐进式 token 剪枝

之前也有一些研究成功使用过 token 剪枝来优化 LLM 推理。但是,这些方法需要积累预测前几个 token 的完整注意力图,以便在剪枝开始之前分析 prompt token 的重要性。也因此,它们不适合用于降低 TTFT,因为它们在预填充阶段仍需要计算所有 KV 缓存。

相较之下,LazyLLM 「很懒」,会从推理的第一轮迭代(预填充步骤)开始,只计算对预测下一 token 重要的 token。

在第一轮迭代中,一大关键难题是确定各个 token 的重要性。受之前已有研究(其中表明 token 隐藏状态会在穿过 Transformer 层时发生演进)的启发,该团队的解决方案是在每个生成步骤使用逐层 token 剪枝。具体来说,他们是使用各层的注意力图来确定输入 token 对将要预测的 token 的重要性。

在计算了 token 的置信度分数之后,另一个难题是确定剪枝 token 的阈值。

具体来说,对于不同的层和不同的任务,该阈值可能会随注意力分数的变化而改变。该团队的解决思路是使用 top-k 百分位数选取策略。具体来说,如果一个 token 的置信度分数小于输入 token 中的第 k 个百分位数,便将其剪枝掉。一旦 token 被剪枝去掉了,它就不再参与所有后续层的计算。

也就是说,后续层使用的 token 是之前层所使用 token 的子集。

后面的实验表明,剪枝层的位置和剪枝的 token 数量不同时,也会导致性能发生变化。具体来说,对于同一 Transformer 层,随着被剪枝去掉的 token 越来越多,模型的性能也会逐渐下降。

他们还发现,相比于早期层的剪枝,在后期层执行剪枝时会得到更好的性能,这说明后期层对 token 剪枝的敏感度更低。为了更好地平衡速度与准确度,该团队使用了如图 4 所示的渐进式剪枝法,从而在早期层保留更多 token,然后在 token 流向后期层的过程中逐渐减少 token 的数量。

新CG儿 新CG儿

数字视觉分享平台 | AE模板_视频素材

新CG儿 412 查看详情 新CG儿

Aux Cache(辅助缓存)

预填充阶段没有 KV 缓存,每个 token 都表示成隐藏状态。因此,可通过移除已被剪枝 token 的隐藏状态来实现渐进式 token 剪枝。但是,要将渐进式 token 剪枝扩展到后续的解码步骤,却并不简单。原因是每个解码步骤都会使用预填充阶段计算的 KV 缓存来计算注意力。由于 LazyLLM 是在预填充阶段执行渐进式 token 剪枝,因此在某一层被剪枝的 token 的 KV 不会出现在下一层的 KV 缓存中。

这里提醒一下,LazyLLM 框架允许在每一步让每个生成步骤从完整的输入 token 序列中挑选一个不同的 token 子集,无论它们是否已在之前的步骤中被剪枝。举个例子,在接下来的解码步骤中,那些在 KV 缓存中不存在的已被剪枝的 token 可能会被重新选取出来用于计算注意力。在这种情况下,模型无法检索到这些 token 的 KV 缓存。

对此,一个基于直觉的解决方案是再让这些 token 通过该 Transformer 的起点。但是,这会导致对同一 token 的重复计算,并最终减慢整体的生成速度。

为解决这个难题,该团队在原有的 KV 缓存之外引入了另一种缓存:Aux Cache(辅助缓存)。

如果已被剪枝 token(如图 4 中 T4 和 T7)的 KV 并未出现在后续层的 KV 缓存中,则会由 Aux Cache 保存它们的隐藏状态以供后续迭代检索。

如图 4 所示,在每个解码步骤,每个 Transformer 层首先会检索过去 token 的 KV 缓存(如果存在的话)。对于那些不在 KV 缓存中的 token,则直接从其前一层的 Aux Cache 中检索它们的隐藏状态,而不必再次经过之前的层。Aux Cache 可确保每个 token 在每个 Transformer 层中最多被计算一次,还能确保 LazyLLM 最慢时也比标准 LLM 快。

实验

该团队在两个大型语言模型上检验了这种「懒惰」新方法:Llama 2 7B 和 XGen 7B。作为对比的标准 LLM 是同样的公开发布的预训练检查点模型,同时不进行任何附加训练。

实验基准是 LongBench,这是一个针对长内容理解的多任务基准。LongBench 基准包含 16 个数据集,涉及 6 个任务,包括单文档问答、多文档问答、总结、少样本学习、合成任务和代码补全。

评估指标是每种方法在 TTFT 加速与准确度权衡方面的效果和效率。

结果

表 1 给出了 LazyLLM、标准 LLM 和其它基线方法的 TTFT 加速和准确度结果。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

在此表中,baseline 是指标准 LLM 推理。random token drop 是指对 token 执行随机剪枝。static token pruning 是指在预填充阶段基于前面几个 Transformer 层的注意力方法来对输入 token 执行一次性剪枝。Prompt Compression 就是 prompt 压缩方法,也就是使用 LLM 去除输入上下文中的冗余。

从表 1 可以看到,LazyLLM 在 TTFT 加速方面全面优胜,同时准确度方面的下降基本可以忽略不计。需要指出,使用 LLM 来压缩 prompt 需要大量计算。因此,即使 Prompt Compression 能让推理速度更快,但其实际的 TTFT 却比标准 LLM 还长。

对总体生成速度的影响

为了评估新方法对总体生成速度的影响,该团队分析了计算使用的 prompt token 百分比和生成加速情况,见表 2。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

可以看到,LazyLLM 计算使用的 token 的占比总是低于 100%,这说明 LazyLLM 在生成结束时也没有用完 prompt 中的所有 token,但理论上讲该模型可以使用所有 token。这能为不同任务的整体生成过程提供额外的加速。

不同层的丢弃率

该团队也分析了剪枝层的位置和被剪枝 token 的数量的影响。结果见图 6。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

可以看到,当在同一 Transformer 层进行剪枝时,留下的 token 越少,模型的性能越差。这也符合我们的直观认知。此外,相比于在更前期 Transformer 层执行剪枝,在后期层进行剪枝会得到更好的性能,这说明后期层对 token 剪枝的敏感度更低。

基于这些观察,可以说渐进式 token 剪枝的效果得到了证明。

渐进式 KV 增长

最后,该团队也尝试了理解使用 token 剪枝逻辑的模型的内部情况。具体来说,他们想要了解 prompt token 中的累积使用比例以及相应的不被使用的比例。这种「累积 token 使用量」可以等价地定义成每一步的 KV 缓存 大小。图 7 给出了 LazyLLM 的每个阶段这些累积的 prompt token 使用量。

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

该结果支持这一假设:许多 token 永远不会被模型选择(即便理论上讲模型可以使用 prompt 中的所有 token。

考虑到模型依然能维持执行任务的准确度,因此可以得出结论:模型可以有效地丢弃不影响输出质量的 token。

以上就是苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/791577.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月26日 14:29:08
下一篇 2025年11月26日 14:29:36

相关推荐

  • 区块链,P2P游戏和市场:链上经济体的新时代

    探索区块链技术与p2p游戏及市场的融合。了解optake和opensea等平台如何推动数字资产交易及链上经济的未来。 区块链、点对点(P2P)游戏以及在线市场的交汇正在催生一系列新机遇。稳定币支付方式和NFT交易平台的发展,正推动更加安全、高效且用户友好的数字经济生态建设。 超越:在区块链上重塑P2…

    好文分享 2025年12月8日
    000
  • 加密公牛奔跑手表:2025年6月注视着Altcoins

    在2025年6月探索加密货币领域?了解有潜力的山寨币,如sky、pendle和mixie,以及xrp的价格波动和solaxy预售的成功背后的观点。 2025年6月正逐渐成为加密货币市场中一个引人注目的月份,特别是对Altcoins而言。随着潜在牛市信号的出现,现在是时候深入研究哪些山寨币吸引了关注,…

    2025年12月8日
    000
  • 空调警报:Infofi,预测性AI和Crypto入职的未来

    kucoin上线infofi代币,将预测性人工智能推向加密领域的核心位置,而无摩擦的空投机制正重新定义用户体验。 空投新风向:Infofi与预测AI引领未来趋势 当各类项目不断尝试吸引用户并构建活跃社区时加密行业正掀起新一轮热潮。当前最引人注目的趋势之一是将空投机制与预测性人工智能相结合。Kucoi…

    2025年12月8日
    000
  • 福特和卡尔达诺:用区块链彻底改变法律数据存储

    福特深入研究cardano区块链的安全机制,结合ai驱动的法律数据管理方案,或将为受监管行业树立新标杆。 福特与Cardano:区块链重塑法律数据存储方式 在数据安全与合规性愈发重要的当下,福特联合Iagon和云法院,探索利用Cardano区块链进行法律数据管理,迈出了关键一步。该项目旨在解决传统法…

    2025年12月8日
    000
  • Memeland Summit,Web3,迪拜合作:不仅仅是模因吗?

    深入探索迪拜的memeland峰会,探索其web3合作、meme文化融合以及对数字资产格局的未来影响。 Memeland Summit,Web3,迪拜合作:仅仅是模因吗? 迪拜举办的Memeland峰会已圆满落幕,为人们带来了关于Web3和Meme文化发展的深刻洞见。它不仅呈现了丰富的合作形式,也预…

    2025年12月8日
    000
  • 币圈交易所前三名(最新版)

    币安、欧易、火币均为主流交易所,各有特点。1. 币安以技术实力强、产品线丰富著称,支持多种交易方式,手续费约0.1%,安全性高,适合新手;2. 欧易提供多样交易产品及专业分析工具,手续费0.08%-0.1%,适合有经验者;3. 火币以本地化服务见长,手续费约0.2%,界面简洁,适合新手。选择时应结合…

    2025年12月8日
    000
  • 2025新手必看:十大易用加密货币交易平台

    对于2025年的加密货币新手来说,选择一个易用且可靠的交易平台是踏入数字资产世界的关键第一步。市面上的交易平台琳琅满目,但并非所有平台都适合新手。易用性、用户界面友好程度、交易费用、客户支持以及安全性都是需要重点考量的因素。本文将深入剖析十大易用加密货币交易平台,旨在帮助新手用户快速上手,避免踩坑,…

    2025年12月8日 好文分享
    000
  • HBAR的看跌十字架:跌至0.098美元不可避免吗?

    hbar面临着潜在的下降趋势,作为看跌的交叉形式。它会降至$ 0.098吗?分析最新的市场趋势及其对hedera的意义。 HBAR的看跌十字架:跌至0.098美元不可避免吗? HBAR正在闪烁警告信号!一个看跌的十字架已经形成,分析师正在将潜在的下降到0.098美元。让我们深入了解Hedera发生的…

    2025年12月8日
    000
  • 长期使用的加密货币:2025年的早期投资者优势

    发现具有长期潜力的加密货币,面向早期投资者,聚焦可持续性、实用性和社区驱动增长。从模因币到ai赋能平台,探索下一轮投资机遇。 长期持有的加密资产:2025年早期参与者的先机优势 加密市场正在升温,早期投资者正将目光投向下一批可能崛起的项目。别再追求短期暴富;真正有远见的资金更关注具备持续价值的数字资…

    2025年12月8日
    000
  • 币圈三大交易所分别是 虚拟币交易所推荐

    加密货币交易平台选择需根据个人需求而定,币安、欧意、火币各具特色。1. 币安(Binance)交易速度快、币种丰富、安全性高且拥有完善的区块链生态系统,适合追求多样币种和高效交易的用户;2. 欧意(OKX)以丰富的衍生品交易和理财产品著称,界面友好,适合偏好期权合约及资产增值的投资者;3. 火币(H…

    2025年12月8日
    000
  • 解码Aal​​uxx神话:Maya协议和智能经济

    解码aaluxx神话:maya协议与智能经济的未来 在区块链技术不断演进的过程中,Aaluxx神话作为Maya协议背后的推动力量,正在智能经济领域掀起一场变革。本文将揭示Aaluxx的背景、Maya协议的核心使命以及其对去中心化金融(DeFi)生态系统的深远影响。 Aaluxx神话:从技术领袖到De…

    2025年12月8日
    000
  • Ripple,Ruvi AI和区块链技术:新时代?

    探索区块链技术的快速演变,对比ripple的稳健表现与ruvi ai所蕴含的巨大爆发潜力。 区块链领域正掀起热潮!深入探讨Ripple、Ruvi AI以及整个区块链生态系统的最新动态。是否将迎来重大转折?你的选择决定未来! Ripple(XRP):稳定中的前行者 Ripple(XRP)一直以来都是跨…

    2025年12月8日
    000
  • 2025数字货币交易平台最新排名前十

    2025年数字货币交易平台排名前列的包括:1.币安,以丰富的交易对、强大的流动性和多重安全措施领先;2.OKX,提供多种交易方式和低手续费,并拓展全球市场;3.火币,历史悠久且合规性强,在亚洲市场影响力大;4.Coinbase和Gemini,以合规与安全著称,适合新手和机构投资者;5.Kraken和…

    2025年12月8日
    000
  • 数字货币交易所平台推荐 十大安全货币交易软件app最新榜单

    2025年数字货币交易平台排名前十分别为币安、OKX、火币、Coinbase、Kraken、Bitfinex、KuCoin、Gemini、Binance US和Crypto.com。1. 币安凭借丰富的交易对、强大的流动性、多重安全措施及多样化的金融服务稳居榜首;2. OKX以低手续费、完善的交易品…

    2025年12月8日
    000
  • Jasmycoin的市场上限和价值:解码炒作

    茉莉素(jasmy)是否值得投资?我们来看看它的市值、潜在价值以及专家对其未来前景的分析。 茉莉素(Jasmy)正在引发热议,大家都在问:它真的有价值吗?让我们深入探讨其当前市值与未来可能的价值空间。 Jasmycoin:热潮从何而来? Jasmycoin最近吸引了越来越多的关注,尤其是那些在寻找潜…

    2025年12月8日
    000
  • 比特币价格:分析师警告及其对您的加密产品组合的意义

    比特币价格走势引发分析师警报。市场是否迎来深度回调,抑或只是短暂调整?最新分析与关注重点如下: 比特币价格:分析师警告及其对您的加密资产配置的影响 比特币近期经历了剧烈波动,屡创新高,但眼下多位分析师发出预警信号。这是否预示着大幅修正即将来临,还是新一轮上涨前的短暂休整?我们一起来看看业内观点。 看…

    2025年12月8日
    000
  • Tron,Ruvi AI和实用令牌:什么是嗡嗡声?

    探索tron、ruvi ai与实用代币生态的最新动向。揭示塑造加密投资未来的关键趋势与深层洞察。 Tron、Ruvi AI与实用代币:为何引发热议? 加密行业永不停歇,目前Tron、Ruvi AI以及实用型代币正掀起新一轮关注热潮。我们来看看背后驱动的因素及其对投资者的意义。 Trondao:人工智…

    2025年12月8日
    000
  • Ruvi AI:被审核的令牌挑战雪崩预测

    ruvi ai(ruvi)正迅速成为焦点,融合了区块链与人工智能技术。凭借亮眼的预售成绩、坚实的合作关系以及实际应用场景,它展现出超越雪崩(avalanche)的潜力。 Ruvi AI:经审核的代币挑战雪崩预测 当Ruvi AI(Ruvi)作为强劲竞争者出现,甚至可能超越雪崩时,加密圈内掀起了一阵热…

    2025年12月8日
    000
  • 2025年加密:Web3 AI是未来吗?

    随着加密市场逐步走向成熟,web3 ai是否将成为2025年长期价值的核心驱动力?让我们一起深入探讨这一趋势背后的洞察。 加密世界正经历深刻变革,当我们展望2025年,“Web3 AI”与“Crypto”已成为热议关键词。但这一切只是炒作,还是蕴含真实潜力?我们以纽约风格的方式为你拆解分析。 成熟的…

    2025年12月8日
    000
  • Solana,开放兴趣和未存储的预测:导航加密货币景观

    随着unstaked创新模型逐渐赢得市场关注,solana维持着稳定态势。我们深入探讨了solana的价格走势、hyperliquid的流动性飙升以及unstaked的5美元价格预测。 Solana、开放利息与Unstaked展望:探索加密新趋势 从Solana的稳健表现到Hyperliquid的强…

    2025年12月8日
    000

发表回复

登录后才能评论
关注微信