galore

  • 使用GaLore在本地GPU进行高效的LLM调优

    训练大型语言模型(llm)是一项计算密集型的任务,即使是那些“只有”70亿个参数的模型也是如此。这种级别的训练需要的资源超出了大多数个人爱好者的能力范围。为了弥补这一差距,出现了低秩适应(lora)等参数高效方法,使得在消费级gpu上可以对大量模型进行微调。 GaLore是一种创新方法,它采用优化参…

    2025年11月11日 科技
    100
关注微信