使用GaLore在本地GPU进行高效的LLM调优

训练大型语言模型(llm)是一项计算密集型的任务,即使是那些“只有”70亿个参数的模型也是如此。这种级别的训练需要的资源超出了大多数个人爱好者的能力范围。为了弥补这一差距,出现了低秩适应(lora)等参数高效方法,使得在消费级gpu上可以对大量模型进行微调。

GaLore是一种创新方法,它采用优化参数训练方式来减少VRAM需求,而非简单减少参数数量。这意味着GaLore是一种新的模型训练策略,允许模型充分利用全部参数进行学习,并比LoRA更有效地节省内存。

GaLore通过将这些梯度映射到低维空间,有效减轻了计算负担,同时保留了关键的训练信息。与传统优化器在反向传播时一次性更新所有层不同,GaLore采用逐层更新的方式进行反向传播。这种策略显著减少了训练过程中的内存占用,进一步优化了性能。

就像LoRA一样,GaLore使我们能够在消费级GPU上微调7B模型,该GPU配备了高达24 GB的VRAM。结果显示,模型的性能与全参数微调相当,甚至似乎优于LoRA。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

使用GaLore在本地GPU进行高效的LLM调优

优于目前Hugging Face还没有官方代码,我们就来手动使用论文的代码进行训练,并与LoRA进行对比

安装依赖

首先就要安装GaLore

pip install galore-torch

然后我们还要一下这些库,并且请注意版本

datasets==2.18.0 transformers==4.39.1 trl==0.8.1 accelerate==0.28.0 torch==2.2.1

调度器和优化器的类

Galore分层优化器是通过模型权重挂钩激活的。由于我们使用Hugging Face Trainer,还需要自己实现一个优化器和调度器的抽象类。这些类的结构不执行任何操作。

from typing import Optional import torch  # Approach taken from Hugging Face transformers https://github.com/huggingface/transformers/blob/main/src/transformers/optimization.py class LayerWiseDummyOptimizer(torch.optim.Optimizer):def __init__(self, optimizer_dict=None, *args, **kwargs):dummy_tensor = torch.randn(1, 1)self.optimizer_dict = optimizer_dictsuper().__init__([dummy_tensor], {"lr": 1e-03}) def zero_grad(self, set_to_none: bool = True) -> None: pass def step(self, closure=None) -> Optional[float]: pass  class LayerWiseDummyScheduler(torch.optim.lr_scheduler.LRScheduler):def __init__(self, *args, **kwargs):optimizer = LayerWiseDummyOptimizer()last_epoch = -1verbose = Falsesuper().__init__(optimizer, last_epoch, verbose) def get_lr(self): return [group["lr"] for group in self.optimizer.param_groups] def _get_closed_form_lr(self): return self.base_lrs

加载GaLore优化器

GaLore优化器的目标是特定的参数,主要是那些在线性层中以attn或mlp命名的参数。通过系统地将函数与这些目标参数挂钩,GaLore 8位优化器就会开始工作。

from transformers import get_constant_schedule from functools import partial import torch.nn import bitsandbytes as bnb  from galore_torch import GaLoreAdamW8bit  def load_galore_optimizer(model, lr, galore_config):# function to hook optimizer and scheduler to a given parameter def optimizer_hook(p, optimizer, scheduler):if p.grad is not None: optimizer.step()optimizer.zero_grad()scheduler.step() # Parameters to optimize with Galoregalore_params = [(module.weight, module_name) for module_name, module in model.named_modules() if isinstance(module, nn.Linear) and any(target_key in module_name for target_key in galore_config["target_modules_list"])] id_galore_params = {id(p) for p, _ in galore_params} # Hook Galore optim to all target params, Adam8bit to all othersfor p in model.parameters():if p.requires_grad:if id(p) in id_galore_params:optimizer = GaLoreAdamW8bit([dict(params=[p], **galore_config)], lr=lr)else:optimizer = bnb.optim.Adam8bit([p], lr = lr)scheduler = get_constant_schedule(optimizer) p.register_post_accumulate_grad_hook(partial(optimizer_hook, optimizer=optimizer, scheduler=scheduler)) # return dummies, stepping is done with hooks return LayerWiseDummyOptimizer(), LayerWiseDummyScheduler()

HF Trainer

准备好优化器后,我们开始使用Trainer进行训练。下面是一个简单的例子,使用TRL的SFTTrainer (Trainer的子类)在Open Assistant数据集上微调llama2-7b,并在RTX 3090/4090等24 GB VRAM GPU上运行。

from transformers import AutoTokenizer, AutoModelForCausalLM, TrainingArguments, set_seed, get_constant_schedule from trl import SFTTrainer, setup_chat_format, DataCollatorForCompletionOnlyLM from datasets import load_dataset import torch, torch.nn as nn, uuid, wandb  lr = 1e-5  # GaLore optimizer hyperparameters galore_config = dict(target_modules_list = ["attn", "mlp"], rank = 1024, update_proj_gap = 200, scale = 2, proj_type="std" )  modelpath = "meta-llama/Llama-2-7b" model = AutoModelForCausalLM.from_pretrained(modelpath,torch_dtype=torch.bfloat16,attn_implementation = "flash_attention_2",device_map = "auto",use_cache = False, ) tokenizer = AutoTokenizer.from_pretrained(modelpath, use_fast = False)  # Setup for ChatML model, tokenizer = setup_chat_format(model, tokenizer) if tokenizer.pad_token in [None, tokenizer.eos_token]: tokenizer.pad_token = tokenizer.unk_token  # subset of the Open Assistant 2 dataset, 4000 of the top ranking conversations dataset = load_dataset("g-ronimo/oasst2_top4k_en")  training_arguments = TrainingArguments(output_dir = f"out_{run_id}",evaluation_strategy = "steps",label_names = ["labels"],per_device_train_batch_size = 16,gradient_accumulation_steps = 1,save_steps = 250,eval_steps = 250,logging_steps = 1, learning_rate = lr,num_train_epochs = 3,lr_scheduler_type = "constant",gradient_checkpointing = True,group_by_length = False, )  optimizers = load_galore_optimizer(model, lr, galore_config)  trainer = SFTTrainer(model = model,tokenizer = tokenizer,train_dataset = dataset["train"],eval_dataset = dataset['test'],data_collator = DataCollatorForCompletionOnlyLM(instruction_template = "user", response_template = "assistant", tokenizer = tokenizer, mlm = False),max_seq_length = 256,dataset_kwargs = dict(add_special_tokens = False),optimizers = optimizers,args = training_arguments, )  trainer.train()

GaLore优化器带有一些需要设置的超参数如下:

target_modules_list:指定GaLore针对的层

rank:投影矩阵的秩。与LoRA类似,秩越高,微调就越接近全参数微调。GaLore的作者建议7B使用1024

行者AI 行者AI

行者AI绘图创作,唤醒新的灵感,创造更多可能

行者AI 100 查看详情 行者AI

update_proj_gap:更新投影的步骤数。这是一个昂贵的步骤,对于7B来说大约需要15分钟。定义更新投影的间隔,建议范围在50到1000步之间。

scale:类似于LoRA的alpha的比例因子,用于调整更新强度。在尝试了几个值之后,我发现scale=2最接近于经典的全参数微调。

微调效果对比

给定超参数的训练损失与全参数调优的轨迹非常相似,表明GaLore分层方法确实是等效的。

使用GaLore在本地GPU进行高效的LLM调优

用GaLore训练的模型得分与全参数微调非常相似。

使用GaLore在本地GPU进行高效的LLM调优

GaLore可以节省大约15 GB的VRAM,但由于定期投影更新,它需要更长的训练时间。

使用GaLore在本地GPU进行高效的LLM调优

上图为2个3090的内存占用对比

使用GaLore在本地GPU进行高效的LLM调优

训练事件对比,微调:~58分钟。GaLore:约130分钟

最后我们再看看GaLore和LoRA的对比

使用GaLore在本地GPU进行高效的LLM调优

上图为LoRA微调所有线性层,rank64,alpha 16的损失图

使用GaLore在本地GPU进行高效的LLM调优

从数值上可以看到GaLore是一种近似全参数训练的新方法,性能与微调相当,比LoRA要好得多。

总结

GaLore可以节省VRAM,允许在消费级GPU上训练7B模型,但是速度较慢,比微调和LoRA的时间要长差不多两倍的时间。

以上就是使用GaLore在本地GPU进行高效的LLM调优的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/618898.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月11日 05:28:28
下一篇 2025年11月11日 05:32:29

相关推荐

  • HTML如何计算页面FPS_性能监测实现方法【技巧】

    可通过五种方法实时监测网页FPS:一、requestAnimationFrame计算帧间隔;二、PerformanceObserver监听paint事件;三、chrome://tracing离线分析;四、performance.getEntriesByType(‘frame’…

    2025年12月23日
    000
  • html 如何置顶_设置HTML元素始终置顶显示【始终】

    可通过CSS的position: fixed、position: sticky、JavaScript动态监听滚动、transform + fixed组合及CSS容器查询五种方案实现元素滚动置顶,各适用于不同兼容性与交互需求场景。 如果您希望某个HTML元素在页面滚动时始终保持在视口顶部位置,可通过C…

    2025年12月23日
    200
  • JavaScript教程:如何准确获取HTML中被点击按钮的Value值

    本文详细讲解如何在JavaScript中准确获取用户点击的HTML按钮的`value`属性,尤其当页面存在多个具有相同类名的按钮时。通过使用`addEventListener`方法为每个按钮绑定事件监听器,并利用事件处理函数内部的`this`关键字,我们可以轻松地引用到被点击的特定按钮元素,从而获取…

    2025年12月23日
    000
  • 深入理解Shadow DOM样式隔离:解决用户代理样式与继承冲突

    shadow dom的样式隔离特性导致全局%ignore_a_1%规则无法直接作用于其内部元素。特别是对于可继承属性,用户代理的默认样式可能覆盖外部继承值。本文将详细探讨shadow dom内样式冲突的原理,并提供两种主要解决方案:利用`inherit`关键字确保可继承属性正确传递,以及通过`ado…

    2025年12月23日
    000
  • JavaScript实现单选按钮联动:选择时禁用其他关联输入框的教程

    本教程详细讲解如何通过javascript实现单选按钮的联动效果。当用户选择一个单选按钮时,其关联的输入框将被启用并聚焦,同时禁用其他未选中的单选按钮及其对应的输入框。文章强调了正确的html结构(特别是`name`属性和`label`的使用)以及事件委托机制,以提升用户体验、确保数据完整性和页面可…

    2025年12月23日
    000
  • 使用JavaScript通过事件委托和数据属性实现动态内容更新

    本文详细介绍了如何利用javascript的事件委托机制和html的`data-*`属性,高效地管理和更新网页上的动态内容。通过一个具体案例,演示了如何根据单选按钮的选择,在同一显示区域内切换显示不同的文本和数值,同时保持代码的简洁性和可维护性,并覆盖了默认值设置、数值与文本混合处理等常见需求。 在…

    2025年12月23日
    000
  • JavaScript DOM操作:点击关联元素获取目标文本内容的教程

    本教程详细介绍了如何通过JavaScript处理用户点击事件,并结合DOM的 closest() 和 querySelector() 方法,从复杂的HTML结构中准确获取目标元素的文本内容。文章强调了使用 addEventListener() 进行事件绑定、避免重复ID以及高效DOM遍历的最佳实践,…

    2025年12月23日
    000
  • 优化多元素交互:JavaScript事件委托实践指南

    本教程旨在解决javascript中为多个相似元素添加事件监听器时,仅最后一个元素生效的常见问题。文章将深入分析传统方法的局限性,并详细介绍如何利用事件委托(event delegation)这一高效策略,通过单个监听器管理父元素内所有子元素的交互行为,从而提升代码性能、简化维护,并确保事件处理的准…

    2025年12月23日
    000
  • JavaScript事件委托与数据属性实现单ID多区域动态内容更新

    本文旨在教授如何利用javascript的事件委托机制和html5的`data-*`属性,实现在一个页面上通过单个id动态更新不同区域的内容。通过监听父元素的`change`事件并结合目标元素的自定义数据属性,可以高效、灵活地根据用户选择(例如单选按钮)来更新页面上的显示文本和数值,避免为每个交互元…

    2025年12月23日
    000
  • vs code运行html慢怎么办_解vs code运行html慢问题【技巧】

    首先禁用非必要扩展如自动保存和实时预览类插件,再使用Live Server右键启动HTML实现热重载,配合无痕模式浏览器排除缓存干扰,接着在设置中排除node_modules等文件夹监视并关闭自动保存,最后通过任务管理器检查CPU和内存占用,确保系统资源充足,从而全面提升VS Code运行HTML的…

    2025年12月23日
    000
  • 在Vue应用中动态更新Chart.js折线图数据

    本教程旨在解决在Vue组件中动态更新Chart.js折线图数据不生效的问题。核心在于理解Chart.js实例并非Vue响应式系统的一部分,因此需通过Vue的`watch`机制监听数据变化,并在子组件中获取Chart实例,手动调用`chart.update()`方法来重新渲染图表,确保数据变更能够实时…

    2025年12月23日
    000
  • 在同一网页中实现多个独立图片上传与显示

    本教程旨在解决在同一网页中实现多个独立图片上传功能时,因HTML元素ID重复导致的图片显示冲突问题。我们将深入分析ID的唯一性原则,并提供基于类名(Class)和JavaScript事件监听的优化解决方案,确保每个上传区域都能独立处理图片,避免相互影响,从而提升网页交互的健壮性和用户体验。 问题剖析…

    2025年12月23日 好文分享
    000
  • 前端交互优化:基于单选按钮选择状态控制提交按钮的启用与禁用

    本教程详细讲解如何使用javascript实现提交按钮的条件启用与禁用。核心在于初始禁用提交按钮,并在用户选择特定单选按钮后才启用。文章纠正了常见的javascript事件监听和布尔值使用错误,并重点介绍了利用事件委托机制优化代码,提高性能和可维护性,确保用户界面交互的流畅性和逻辑性。 在现代Web…

    2025年12月23日
    000
  • JavaScript代码重构:优化重复逻辑与提升可维护性

    本文旨在探讨如何通过数据驱动、事件委托和函数封装等策略,对前端javascript代码中重复的ui交互逻辑进行重构。通过将元素配置数据化,并利用事件委托机制集中处理事件,结合一系列通用辅助函数,可以显著减少代码量,提高代码的可读性、可维护性和可扩展性,从而构建更健壮、更易于管理的前端应用。 在前端开…

    2025年12月23日
    000
  • JavaScript实现交互式按钮:动态样式切换与类名管理的最佳实践

    本教程旨在解决javascript中动态修改元素样式和类名时常遇到的问题,特别是如何实现按钮的选中与取消选中功能。文章将深入分析传统方法的不足,例如事件监听器绑定时机和`classname`属性的局限性,并推荐使用单一事件监听器结合`classlist` api进行条件判断,从而实现更健壮、可维护的…

    2025年12月23日
    000
  • React Select 选项绑定复杂对象值的最佳实践

    在react中处理“组件选项绑定复杂对象值时,直接通过`e.target.value`获取将导致数据丢失,因为原生dom的`value`属性仅支持字符串。本文将深入探讨这一常见问题,并提供一种推荐的解决方案:通过将选项的唯一标识符(如`label`)作为“的`value`属性…

    2025年12月23日
    000
  • 使用原生JavaScript管理和展示动态内容的模态框

    本教程将指导您如何使用原生javascript高效地实现动态内容的模态框。通过采用单个模态框、事件委托和html数据属性的策略,您可以避免创建多个重复的模态框元素,从而优化dom结构并简化代码逻辑。文章将详细介绍html、css和javascript的实现细节,确保模态框能够根据不同按钮的点击动态加…

    2025年12月23日
    000
  • 如何解决在线编辑HTML时内存溢出的处理方法

    在线编辑HTML内存溢出主因是DOM复杂、资源过多或JS循环,需简化结构、优化脚本、控制加载并用工具监控内存。 在线编辑HTML时出现内存溢出,通常是因为页面中加载了过多资源、DOM结构过于复杂或存在JavaScript无限循环等问题。这类问题会拖慢浏览器响应,甚至导致标签页崩溃。解决方法需要从优化…

    2025年12月23日
    000
  • JavaScript事件处理:如何精准修改点击元素内的特定子元素样式

    本教程旨在解决JavaScript事件处理中常见的元素选择与状态管理问题。我们将深入分析通过类名全局选择元素后,如何仅修改被点击元素内部特定子元素的样式,同时优化全局状态变量的使用,采用基于CSS类名的局部状态管理方案,以实现更精确、可维护的用户界面交互。 在前端开发中,我们经常需要实现用户点击某个…

    2025年12月23日
    000
  • 使用纯JavaScript实现点击列表项追加内容至文本域

    本教程详细介绍了如何利用纯javascript实现点击网页列表(` `)项时,将其文本内容动态追加到指定文本域(“)中的功能。文章通过简洁的html结构和无依赖的javascript代码,逐步解析了元素获取、事件监听以及内容追加的核心逻辑,强调了纯javascript在前端开发中的基础性和效率。 …

    2025年12月23日
    000

发表回复

登录后才能评论
关注微信