🔥 发表于论文:(2021) LoRA: Low-Rank Adaptation of Large Language Models
😄 目的:大模型预训练+微调范式,微调成本高。LoRA只微调新增的小部分参数。
文章来源:https://www.toymoban.com/news/detail-581326.html
1、背景
- adapter增加了模型层数,引入了额外的推理延迟;
- prefix-tuning比较难训练,效果不如直接finetune。
- LoRA不会引入额外的延迟,甚至原文中的实验结果表明它和全量微调效果相当,并且速度更快,计算量更少。
2、动机
论文作者得益于前人的一些关于内在维度(intrinsic dimension)的发现:模型是过参数化的,它们有更小的内在维度,模型主要依赖于这个低的内在维度(low intrinsic dimension)去做任务适配(微调)。假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)文章来源地址https://www.toymoban.com/news/detail-581326.html
到了这里,关于LLM微调 | LoRA: Low-Rank Adaptation of Large Language Models的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!