LLM微调过程中灾难性遗忘问题解决方法

这篇具有很好参考价值的文章主要介绍了LLM微调过程中灾难性遗忘问题解决方法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

灾难性遗忘是LLM微调过程中最常见的问题,下面是一些解决办法:文章来源地址https://www.toymoban.com/news/detail-745377.html

  1. 将重要的权重冻结:像Lora就是采用的这种方案,只学习部分网络权重。但这里Lora的配置其实是要注意一下,如果你是用Lora做预训练,lora训练模块可以配上 q_proj,v_proj,k_proj,o_proj 如果是微调则只需要训练q_proj,v_proj。lora_rank的设置也有讲究,初始设lora_ran为8,训练存在遗忘时,可以将 lora_rank改为64(原因是与原模型数据领域相差较大的话,需要更大的秩,原论文有说明)
  2. 复习:跟人一样,在预训练或微调时,回看之前训练的数据。还可以专门把特征图存起来,量化以后放在一个类似于记忆库的地方,之后在新任务上训练的时候从这个记忆库里重构出记忆和新数据一起训练。感兴趣可以看这篇论文:REMIND Your Neural Network to Prevent
    Catastrophic Forgetting
  3. MoE:稀疏门控制的专家混合层,最近爆出GPT4是由 8个220B的模型组合。但个人体验,阉割版的GPT4变得智障了很多。
  4. 数据蒸馏:损失函数由teacher-student的KL loss和groud truth label构成:https://github.com/beyondguo/LLM-Tuning/discussions/24

参考

  • 大语言模型Fine-tuning踩坑经验之谈

到了这里,关于LLM微调过程中灾难性遗忘问题解决方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 2013年第二届数学建模国际赛小美赛A题数学与经济灾难解题全过程文档及程序

    原题再现:    2008年的市场崩盘使世界陷入经济衰退,目前世界经济仍处于低迷状态,其原因是多方面的。其中之一是数学。    当然,并非只有金融界依赖于并非总是可靠的数学模型来指导决策。科学家们在许多领域与模型作斗争,包括气候科学、海岸侵蚀和核安全,

    2024年02月04日
    浏览(41)
  • 【LLM】Prompt微调

    在机器学习中,Prompt通常指的是一种生成模型的输入方式。生成模型可以接收一个Prompt作为输入,并生成与该输入相对应的输出。Prompt可以是一段文本、一个问题或者一个片段,用于指导生成模型生成相应的响应、续写文本等。 一般大模型蕴含的训练数据量往往是百亿级别甚

    2024年01月17日
    浏览(40)
  • LLM中的微调演变

    首先是任务驱动了微调的发展,GPT1和BERT遵循经典的预训练+微调范式,到GPT3时期,预训练任务表现为句子接龙,给定前文持续预测下一个word,当模型参数规模和训练数据增大后,GPT3面对few shot甚至是zero shot任务的表现都超越了原本的SOTA方法。 下面是几个关于zero shot,few s

    2024年02月14日
    浏览(33)
  • 开源LLM微调训练指南:如何打造属于自己的LLM模型

    今天我们来聊一聊关于LLM的微调训练,LLM应该算是目前当之无愧的最有影响力的AI技术。尽管它只是一个语言模型,但它具备理解和生成人类语言的能力,非常厉害!它可以革新各个行业,包括自然语言处理、机器翻译、内容创作和客户服务等,成为未来商业环境的重要组成

    2024年02月12日
    浏览(50)
  • QLoRA:量化 LLM 的高效微调

    此 repo 支持论文“QLoRA:量化 LLM 的高效微调”,旨在使对 LLM 研究的访问民主化。 QLoRA 使用bitsandbytes进行量化,并与 Hugging Face 的PEFT和transformers库集成。QLoRA 由华盛顿大学 UW NLP 小组的成员开发。 我们介绍了 QLoRA,这是一种有效的微调方法,可以减少内存使用量,足以在单个

    2024年02月08日
    浏览(43)
  • 【LLM系列之指令微调】长话短说大模型指令微调的“Prompt”

    1 指令微调数据集形式“花样”太多 大家有没有分析过 prompt对模型训练或者推理的影响?之前推理的时候,发现不加训练的时候prompt,直接输入模型性能会变差的,这个倒是可以理解。假如不加prompt直接训练,是不是测试的时候不加prompt也可以?还有一个就是多轮prompt和单轮

    2024年02月14日
    浏览(47)
  • LLM-TAP随笔——有监督微调【深度学习】【PyTorch】【LLM】

    提示学习 完成预测的三个阶段:提示添加、答案搜索、答案映射 提示添加 “[X] 我感到 [Z]” x = “我不小心错过了公共汽车。” x’ = “我不小心错过了公共汽车。我感到[Z]” 答案搜索 Z = {“太好了”,“好”,“一般”,“不好”,“糟糕”} 将给定提示 x ′ 而模型输出为

    2024年02月07日
    浏览(31)
  • 【LLM大模型】模型和指令微调方法

    Hugging Face 的 PEFT是一个库(LoRA 是其支持的技术之一,除此之外还有Prefix Tuning、P-Tuning、Prompt Tuning),可以让你使用各种基于 Transformer 结构的语言模型进行高效微调。 AIpaca羊驼:让 OpenAI 的 text-davinci-003 模型以 self-instruct 方式生成 52K 指令遵循(instruction-following)样本,以此

    2024年02月06日
    浏览(42)
  • 深入了解 大语言模型(LLM)微调方法

    众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。 那么,今天这篇文章就带大家深入了解大模型微调。其中

    2024年03月14日
    浏览(43)
  • 【LLM】Prompt tuning大模型微调实战

    prompt tuning可看做是prefix tuning的简化版本,在输入层加入prompt tokens,并不需要加入MLP进行调整来解决难训练的问题,作者实验表明随着预训练模型参数量的增加,prompt tuning效果逼近fine tuning效果 之前提到过可以借助 peft 库(Parameter-Efficient Fine-Tuning)进行微调,支持如下tuni

    2024年02月13日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包