田渊栋团队新研究:微调

在大家不断升级迭代自家大模型的时候,LLM(大语言模型)对上下文窗口的处理能力,也成为一个重要评估指标。

比如 OpenAI 的 gpt-3.5-turbo 提供 16k token 的上下文窗口选项,AnthropicAI 的更是将 Claude 处理 token 能力提升到 100k。大模型处理上下文窗口是个什么概念,就拿 GPT-4 支持 32k token 来说,这相当于 50 页的文字,意味着在对话或生成文本时,GPT-4 最多可以记住 50 页左右内容。 

一般来讲,大语言模型处理上下文窗口大小的能力是预定好的。例如,Meta AI 发布的 LLaMA 模型,其输入 token 大小必须少于 2048。

然而,在进行长对话、总结长文档或执行长期计划等应用程序中,经常会超过预先设置的上下文窗口限制,因而,能够处理更长上下文窗口的 LLM 更受欢迎。

但这又面临一个新的问题,从头开始训练具有较长上下文窗口的 LLM 需要很大的投入。这自然引出一个疑问:我们能否扩展现有的预训练 LLM 的上下文窗口?

一种直接的方法是对现有的预训练 Transformer 进行微调,以获得更长的上下文窗口。然而,实证结果表明,使用这种方式训练的模型对长上下文窗口的适应速度非常慢。经过 10000 个批次的训练后,有效上下文窗口的增加仍然非常小,仅从 2048 增加到 2560(实验部分的表 4 可以看出)。这表明这种方法在扩展到更长的上下文窗口上效率低下。

本文中,来自 Meta 的研究者引入了位置插值(Position Interpolation,PI)来对某些现有的预训练 LLM(包括 LLaMA)的上下文窗口进行扩展。结果表明,LLaMA 上下文窗口从 2k 扩展到 32k,只需要小于 1000 步的微调

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

论文地址:https://arxiv.org/pdf/2306.15595.pdf

微软文字转语音 微软文字转语音

微软文本转语音,支持选择多种语音风格,可调节语速。

微软文字转语音 0 查看详情 微软文字转语音

该研究的关键思想不是进行外推(extrapolation),而是直接缩小位置索引,使得最大位置索引与预训练阶段的上下文窗口限制相匹配。换句话说,为了容纳更多的输入 token,该研究在相邻的整数位置上插值位置编码,利用了位置编码可以应用于非整数位置的事实,与在训练过的位置之外进行外推相比,后者可能导致灾难性的数值。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究

PI 方法将基于 RoPE(旋转位置编码)的预训练 LLM(如 LLaMA)的上下文窗口大小扩展到最多 32768,只需进行最小的微调(在 1000 个步骤内),这一研究在需要长上下文的各种任务上性能较好,包括检索、语言建模以及从 LLaMA 7B 到 65B 的长文档摘要。与此同时,通过 PI 扩展的模型在其原始上下文窗口内相对保持了较好的质量。

方法

在我们比较熟悉的 LLaMA、ChatGLM-6B、PaLM 等大语言模型中,都有 RoPE 身影,该方法由追一科技苏剑林等人提出,RoPE 通过绝对编码的方式实现了相对位置编码。

虽然 RoPE 中的注意力得分只取决于相对位置,但它的外推性能并不好。特别是,当直接扩展到更大的上下文窗口时,困惑度可能会飙升到非常高的数字 (即 > 10^3)。

本文采用位置插值的方法,其与外推方法的比较如下。由于基函数 ϕ_j 的平滑性,插值更加稳定,不会导致野值。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

 该研究将 RoPE f 替换为 f ′,得到如下公式

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

该研究将在位置编码上的转换称为位置插值。这一步将位置索引从 [0, L′ ) 缩减到 [0, L) ,以匹配计算 RoPE 前的原始索引范围。因此,作为 RoPE 的输入,任意两个 token 之间的最大相对距离已从 L ′ 缩减到 L。通过在扩展前后对位置索引和相对距离的范围进行对齐,减轻了由于上下文窗口扩展而对注意力分数计算产生的影响,这使得模型更容易适应。

值得注意的是,重新缩放位置索引方法不会引入额外的权重,也不会以任何方式修改模型架构。

实验

该研究展示了位置插值可以有效地将上下文窗口扩展到原始大小的 32 倍,并且这种扩展只需进行几百个训练步骤即可完成。

表 1 和表 2 报告了 PI 模型和基线模型在 PG-19 、 Arxiv Math Proof-pile 数据集上的困惑度。结果表明使用 PI 方法扩展的模型在较长的上下文窗口大小下显著改善了困惑度。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究

表 3 报告了在 PG19 数据集上使用 PI 方法,将 LLaMA 7B 模型扩展到 8192 和 16384 上下文窗口大小时的困惑度与微调步数之间的关系。

由结果可得,在没有微调的情况下(步数为 0),模型可以展现出一定的语言建模能力,如将上下文窗口扩展到 8192 时的困惑度小于 20(相比之下,直接外推方法的困惑度大于 10^3)。在 200 个步骤时,模型的困惑度超过了 2048 上下文窗口大小下原始模型的困惑度,表明模型能够有效利用比预训练设置更长的序列进行语言建模。在 1000 个步骤时可以看到模型稳步改进,并取得了更好的困惑度。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

下表表明,通过 PI 扩展的模型在有效上下文窗口大小方面都成功地实现了扩展目标,即仅通过微调 200 个步骤后,有效上下文窗口大小达到最大值,在 7B 和 33B 模型大小以及最高 32768 上下文窗口的情况下保持一致。相比之下,仅通过直接微调扩展的 LLaMA 模型的有效上下文窗口大小仅从 2048 增加到 2560,即使经过 10000 多个步骤的微调,也没有明显加速窗口大小增加的迹象。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

表 5 显示扩展到 8192 的模型在原始基准任务上产生了可比较的结果,而该基准任务是针对更小的上下文窗口设计的,对于 7B 和 33B 模型大小,在基准任务中的退化最多达到 2%。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

表 6 表明,具有 16384 上下文窗口的 PI 模型,可以有效地处理长文本摘要任务。

不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究图片

以上就是田渊栋团队新研究:微调的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/516267.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 03:22:42
下一篇 2025年11月9日 03:23:57

相关推荐

  • 基于Schema文件实现无数据库连接的SQL语句生成

    本文探讨了在不直接连接数据库的情况下,如何利用数据库schema文件生成sql语句的方法。我们将重点介绍通过提供详细的数据库概览信息给大型语言模型(llm),实现基于schema的sql查询生成,从而避免实际数据库连接,提升安全性和灵活性。内容涵盖了如何准备schema信息以及其在llm驱动的sql…

    2025年12月14日
    000
  • 如何优化ChromaDB检索响应的完整性

    在使用Langchain结合ChromaDB构建基于文档的问答系统时,用户有时会遇到检索到的响应不完整的情况,尤其是在处理大型或复杂PDF文档时。这通常不是ChromaDB本身的问题,而是文档处理、检索策略或问答链配置不当导致的。本文将详细介绍如何通过优化文档分块、调整检索器参数以及理解问答链机制来…

    2025年12月14日
    000
  • Copilot如何高效调用大型语言模型并避免资源浪费?

    Copilot:高效利用大型语言模型的秘诀 Copilot强大的代码补全和智能提示功能,得益于其对大型语言模型(如Claude、Gemini和GPT)的巧妙调用。本文将揭秘Copilot如何高效地与这些模型交互,避免资源过度消耗。 精细化的提示词策略 Copilot并非简单地将所有信息一股脑地塞给模…

    2025年12月13日
    000
  • python中的LLM函数逐步指南

    本指南将指导您如何使用 Python 和 Claude 实现函数调用,并提供示例和最佳实践。通过函数调用,Claude 可以以结构化的方式与外部函数和工具交互。 先决条件 开始之前,您需要: Python 3.7 或更高版本anthropic Python 包Anthropic 提供的有效 API …

    2025年12月13日
    000
  • 将待办事项列表设置为Windows壁纸(由SONNET编码)

    amoy-todo-wallpaper >将待办事项列表设置为windows壁纸。 这是一个由claude-sonnet-3.5编码的python程序,并进行了较小的修订。 github:https://github.com/casualwriter/amoy-todo-wallpaper 如…

    2025年12月13日
    000
  • 开源LLMS应该得到代码,而不是提示! (DSPY,瞧!)

    DSPY:将提示工程转变为提示编程的革命性框架 大型语言模型 (llm) 时代,新模型层出不穷。然而,充分发挥 llm 的潜力往往依赖于繁琐易错的提示工程。dspy 应运而生,它是一个开源框架,彻底改变了我们与 llm 交互的方式。dspy 将提示视为可训练、模块化的组件,而非静态文本,并通过编程方…

    2025年12月13日 好文分享
    000
  • 使用 Anthropic 的 Claude Sonnet 生成报告

    Pilar,一家巴西房地产科技公司,联合创始人兼首席技术官Raphael分享了利用Anthropic Claude 3.5 Sonnet生成报告的经验,并比较了两种不同方法的优劣。Pilar为房地产经纪商提供基于低成功费模式的软件和服务,其20人的技术团队不断开发创新产品,例如全新的房地产门户网站P…

    2025年12月13日
    000
  • 使用 AWS Bedrock 部署 AI 交通拥堵预测器:完整概述

    本文将指导您如何使用 AWS Bedrock 部署一个 AI 交通拥堵预测器,实现实时交通状况预测。AWS Bedrock 提供全托管的基础模型服务,非常适合 AI 应用部署。我们将涵盖从环境准备到最终测试的完整流程。 先决条件: 一个具有相应权限的 AWS 账户 (建议使用免费套餐)。Python…

    2025年12月13日
    000
  • AISuite:简化跨多个 LLM 提供商的 GenAI 集成

    生成式人工智能 (gen ai) 正在凭借其创造力、解决问题和自动化的潜力重塑行业。然而,由于 api 和配置分散,开发人员在集成来自不同提供商的大型语言模型 (llm) 时经常面临重大挑战。互操作性的缺乏使工作流程变得复杂,延长了开发时间,并阻碍了有效的 gen ai 应用程序的创建。 为了解决这…

    2025年12月13日
    000
  • 使用 Amazon Bedrock Converse API 节省时间!

    通过 bedrock,您可以访问一系列不同的大型语言模型(例如 claude、mistral、llama 和 amazon titan),并且随时都有新版本可用。 有选择固然很棒,但必须为每个模型编写不同的请求代码却很痛苦。 这就是为什么在比较不同基础模型的输出时,amazon bedrock co…

    2025年12月13日 好文分享
    000
  • 去中心化交易所怎么用?币安+Uniswap交易操作教程

    使用DEX需先在币安提币至MetaMask,再连接Uniswap兑换:1.币安选择正确主网提币至MetaMask地址;2.安装MetaMask并安全保管助记词;3.连接Uniswap并设置滑点与Gas后完成链上兑换。 使用去中心化交易所(dex)的核心托管通过自托管应用连接并交互。基本流程是在币安等…

    2025年12月12日
    000
  • 如何购买BNB?币安平台入金与交易完整教程

    Binance币安 欧易OKX ️ Huobi火币️ 如何购买BNB?币安平台入金与交易完整教程 BNB(Binance Coin)是币安生态的原生代币,用于手续费折扣、Launchpad参与和BSC链Gas费,目前(2025年10月23日)价格约为$1,121 USD,市值$1600亿美元。新手可…

    2025年12月11日
    000
  • 自由职业者神器 PHP加ChatGPT自动回复客户邮件

    答案:PHP结合ChatGPT可实现客户邮件自动回复,提升自由职业者效率。通过IMAP收取邮件,调用OpenAI API生成专业回复,再通过SMTP自动发送,核心在于合理设计Prompt以提升回复质量,并配合定时任务执行。需注意垃圾邮件、信息泄露、上下文理解偏差、API安全与调用成本等风险。建议结合…

    2025年12月11日 好文分享
    000
  • 代码气味 – 未解析的元标签

    不完整的元标签是不专业的 tl;dr:不完整或空元标记会破坏功能和用户体验。 问题 标签出现在输出中电子邮件文本包含人类可读文本之间的占位符丢失的占位符会让用户感到困惑网站呈现奇怪的字符空值会触发错误潜在的安全注入漏洞 解决方案 验证元标记尽早断言完整性快速失败避免空值抛出有意义的异常自动元验证 语…

    2025年12月11日 好文分享
    000
  • 构建了一个将面试准备过程变成博客文章的功能

    我开发了一个工具,利用Claude 3生成PHP面试准备资源,并将其自动转换为博客文章。此工具涵盖了面试中可能遇到的问题、答案和提示,帮助求职者更好地准备面试。 该工具的输出示例可见于:https://www.php.cn/link/4d1d732a3fd7efdacb4b26a0ca945eba …

    2025年12月10日
    000
  • 什么是“Faucet”(水龙头)?如何领取免费的测试币?

    binance币安交易所 注册入口: APP下载: 欧易OKX交易所 注册入口: APP下载: 火币交易所: 注册入口: APP下载: “Faucet”指分发少量测试币的平台,用户通过完成任务获取奖励。 一、理解加密货币水龙头 加密货币水龙头是网站或应用,通过发放小额测试币激励用户。其运作模式类似滴…

    2025年12月9日
    000
  • Claude拿下冠军,6大AI网格策略对决真相如何?OKX&AiCoin实盘测评

    nof1 推出的「ai 炒币实盘竞技场」第一赛季,终于在 2025 年 11 月 4 日早上 6 点收官,吊足了币圈、科技圈和金融圈的胃口。 Binance币安 欧易OKX ️ Huobi火币️ 但这场“AI 智商公开测试”的结局却有点出乎意料,六个模型总计的 6 万美元本金,收官时只剩 4.3 万…

    2025年12月9日 好文分享
    000
  • 谁在OKX网格策略中赚的最多?揭秘OKX 6大AI交易“性格”

    近期,由初创团队nof1推出的「ai炒币实盘竞技场」——alphaarena,引爆了加密与金融科技圈。该比赛为每个ai模型提供$10,000真实资金,让它们在加密市场中自主交易,一时间,ai的“财商”成为了热议的焦点。 Binance币安 欧易OKX ️ Huobi火币️ 这股热潮之下,一个更具实践…

    2025年12月9日 好文分享
    000
  • 什么是 AI 加密货币交易机器人?从进程化到智能化(发展历程介绍)

    从早期的规则型机器人到能自我学习的 ai 系统,了解人工智能如何以速度与精准度主导加密交易市场。 Binance币安 欧易OKX ️ Huobi火币️ 什么是 AI 加密货币交易机器人?与传统机器人有何不同? AI 加密货币交易机器人代表着自动化交易的一大转变。这些系统利用机器学习算法与高端数学模型…

    2025年12月9日
    000
  • 去中心化交易所(DEX)的风险与挑战

    去中心化交易所(dex)作为加密货币世界的一股新生力量,正以其独特的优势吸引着越来越多的关注。然而,伴随着去中心化的自由与开放,dex也面临着一系列不容忽视的风险与挑战。本文将深入探讨这些潜在的问题,帮助读者更全面地理解dex的复杂性。 流动性风险 DEX的流动性通常由用户提供的资金池来支撑。这意味…

    好文分享 2025年12月9日
    000

发表回复

登录后才能评论
关注微信