解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

这篇具有很好参考价值的文章主要介绍了解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

LLM Agent中间插个队,总结下指令微调、对齐数据相关的方案,已经凑够7篇论文可以召唤神龙啦!论文都是以优化指令样本为核心,Data-Centric的观点比较一致:指令微调也就是对齐阶段的数据质量>>数量,少量+多样+高质量的对齐数据,就能让你快速拥有效果杠杠的模型。注意以上三者是充分必要关系,不是说数据越少越好,是三者的有机统一。

如果你对指令微调还不甚了解,建议先看看下解密Prompt系列4. 升级Instruction Tuning。

当前对指令微调部分的普遍认知有两个思路

  • 抽象派:把模型输出和人类偏好进行对齐
  • 务实派:赋予模型任务指令的理解和完成能力

两个思路其实殊途同归,重心落在任务+对齐,既基于用户指令应该召回模型预训练学习的哪些知识,以及把这些知识用什么样的格式和风格进行输出,类似于把预训练学习的知识重新排列组合并输出。可以类比探测Bert Finetune对向量空间的影响,只不过指令微调调整的高维空间更加细分多样。

于是才有本章的讨论,那我们构建质量更高,覆盖范围更广的数据,是否比随机造大量的指令数据效果要更好。毕竟你抖音刷1000条杂七杂八的中医养生小知识,可能比不上精读黄帝内经+神农本草不是~

LIMA

  • 论文:LIMA: Less Is More for Alignment
  • 要点:人工构建1K高质量样本用于对齐,高质量主要指输出的风格一致性,以及输入的多样性

LIMA是比较早提出Quality Over Quantity观点的论文。论文提出一个假设是模型的知识和能力几乎全部是预训练阶段注入的。而指令微调阶段的对齐只是学习和人类交互的回答形式。因此一个输入多样输出形式一致的高质量指令数据集能帮模型快速学到回答形式。

指令数据集的构建方式是人工从Stack Exchange, wikiHow和Reddit里面分类筛选更高质量的问题和回答,来构建指令样本集。我们具体说下Stack Exchange样本的构建,其他两个思路是一致的

  1. 分类采样: 为了保证多样性,把Stack的分成75个科学类别和99个其他类别,从每个类别中采样200个问题
  2. 筛选:为了保证质量,在以上每个类别中筛选问题评分最高的,再筛选该问题中回答得分最高的
  3. 过滤:为了保证输出的一致性,过滤太长(4096字符)/太短(1200字符)的回答,过滤以第一人称回答,或者引用了其他回答的内容。以及对内容进行清洗只保留代码和文本部分。
  4. 样本构建:随机使用问题的标题或者描述作为输入,使用回答做为输出。

除了使用已有的QA数据,几位作者还人工构建了200条基于个人偏好随机创建的prompt,以及编写的回答,在回答编写过程中核心是注意回答风格的一致性。重要的事情说三遍,一致性,一致性,一致性。论文反复强调一致的回答风格可以加速模型收敛。

论文使用的是65B的LLAMA模型,1000条样本,微调了15个epoch,lr=1e-5, batch=32, max_seq_len =2048。最终是人工在验证集打分上,选择了5-10个epoch之间的checkpoint。

论文针对数据集的质量,数量和多样性进行了消融实验,如下图

解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

  • 多样性:相似质量和数量,输入指令多样性更高的stack exchange的效果优于输入相对单一的wikiHow数据集
  • 质量:同等量级上过滤后质量更高的stack Exchange数据集微调的效果更好
  • 数量:从质量过滤后单一的stack exchange中采样更高量级的训练样本,并不能显著带来效果提升。之前公认的样本数量越多越好,可能更多是数量提升带来的指令多样性提升。

当然论文选择的样本数本身并无非常大的参考意义,因为这个选择的基座模型,模型大小,数据本身的多样性都相关,所以需要具体模型具体分析。

ALPAGASUS

  • 论文:AlpaGasus: Training A Better Alpaca with Fewer Data
  • 代码:https://lichang-chen.github.io/AlpaGasus/
  • 数据: https://github.com/gururise/AlpacaDataCleaned/
  • 要点:模型自动化筛选高质量指令微调样本

论文起名终于从和动物纠缠不清,到开始上天入地,模型起名AlpaGasus=Alpaca+Pegasus,故名飞天羊驼,哈哈最近总会让人不由自主想到飞天茅台

解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

对比LIMA,ALPAGASUS没有对什么是高质量进行很明确的定义,但是提出了自动化样本过滤的方案,成本更低,更简单粗暴。从原始52K的ALPACA样本中使用大模型自动筛选高质量的9K样本进行模型微调。

论文在以下4个测试集上进行评估,使用GPT-4给原始Alpaca和飞天羊驼进行偏好打分,胜率如下,在不同量级的训练样本上,飞天羊驼以80%+的胜率超越Alpaca,当训练样本在9K左右的时候,胜率最高~

解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

自动样本过滤机制比较简单,就是使用如下Prompt,让Chatgpt给(instruction, input, response)的三元组样本进行打分,并根据最终的打分分布,选定4.5分作为阈值,筛选打分>4.5的9K样本用于下游模型微调。

解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

论文还进行了消融实验,对比了不同的筛选阈值得到的不同训练样本量的影响,3k/6k/9k中9K的样本量级,模型效果最好,但超过后模型效果会有下降。延伸下大概就是高质量的数据越多越好,但低质量的数据越少越好。同时对比了随机采样9K作为作为对照组,效果是显著差于使用模型打分筛选出的9K样本。

自动化数据筛选看起来非常美好且梦幻,但笔者本人有一个疑问,论文使用chatgpt来筛选样本,又用GPT4作为评估,是否会引入bias,这个bias主要来自chatgpt和gpt4相对一致的偏好。这一点除非引入人工评估,或者多个大模型例如Claude之类同时进行最终的评估打分,否则个人感觉可能出现妈妈看自己的孩子咋看都好看的情况......

LTD

  • 论文:Maybe Only 0.5% Data is Needed: A Preliminary Exploration of Low Training Data Instruction Tuning
  • 要点:聚类过滤相似度高的样本,筛选多样性样本用于对齐

LTD的样本筛选中心放在多样性,在任务微调上只使用0.5%的训练样本,还比原有效果提升了2%。论文对多样性给出了更形象的描述就是用最少的样本,去近似刻画当前全部指令集的空间分布。这么一描述,其实答案已经呼之欲出了,跑不了cluster,KNN,k-center这些方案,论文实现如下

解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

具体分成3个步骤

  1. Sample embedding: 把指令样向量化,这里论文是把指令+回答一同输入BERT模型进行编码,并且做了l2正则化,这样后续聚类计算距离就可以直接使用cosine距离
  2. Clustering:作者使用K-Means对所有指令样本进行聚类,不过个人更偏好aggolomerative clustering,毕竟k-means是密度聚类,而层次聚类是基于距离的,在文本聚类中距离是有明确含义的,可以更好保证不同cluster直接的粒度相对一致
  3. Corest Sampling:基于聚类结果选择有代表性的样本来构建指令集。我本以为论文会直接从每个cluster动进行随机采样,意料之外的是论文采用了贪心的K-center算法来选取更有代表性的数据点,算法如下。目标是找到K的中心点,使得所有点到距离最近的中心点的距离之和最小化。实现是先用聚类中心点作为起始中心点,遍历所有其他点找到离所有起始点距离最远的点,把这个点也加入中心点,然后多次重复以上过程。

解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus

除了以上介绍的论文之外,还有几篇论文思想也或有相似,包括以下Reference中的

  • InstructionGPT-4:把多样性和质量进行综合打分的多模态微调模型
  • Instruction Minning: 使用指令评估集推理Loss来对指令数据进行高质量筛选的
  • Polite Flamingo:通过改写和重构构建高质量多模态模型输出数据
  • Textbooks:编程任务上构建教科书级别质量的预训练数据,和对应的习题集数据用于微调效果显著超越StarCoder

想看更全的大模型相关论文梳理·微调及预训练数据和框架·AIGC应用,移步Github >> DecryPrompt文章来源地址https://www.toymoban.com/news/detail-711740.html


Refernece

  1. InstructionGPT-4: A 200-Instruction Paradigm for Fine-Tuning MiniGPT-4
  2. Instruction Mining: High-Quality Instruction Data Selection for Large Language Models
  3. Visual Instruction Tuning with Polite Flamingo
  4. Textbooks are all you need
  5. K-center Greedy算法的论文,Active Learning for Convolutional Neural Networks: A Core-Set Approach

到了这里,关于解密Prompt系列16. LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 解密Prompt系列18. LLM Agent之只有智能体的世界

    重新回来聊Agent,前四章的LLM Agent,不论是和数据库和模型还是和搜索引擎交互,更多还是大模型和人之间的交互。这一章我们来唠唠只有大模型智能体的世界!分别介绍斯坦福小镇和Chatdev两篇论文。它们的共同特点是使用多个大模型智能体协同完成任务。 多智能相比单一智

    2024年02月08日
    浏览(51)
  • 解密Prompt系列12. LLM Agent零微调范式 ReAct & Self Ask

    前三章我们分别介绍了思维链的使用,原理和在小模型上的使用。这一章我们正式进入应用层面,聊聊如何把思维链和工具使用结合得到人工智能代理。 要回答我们为什么需要AI代理?代理可以解决哪些问题?可以有以下两个视角 首先是我们赋能模型,如果说 LLM是大脑,那

    2024年02月15日
    浏览(50)
  • 解密Prompt系列14. LLM Agent之搜索应用设计:WebGPT & WebGLM & WebCPM

    前两章,我们分别介绍了基于微调和prompt的工具调用方案,核心都是如何让大模型和工具进行交互,包括生成工具调用语句和处理工具调用请求。不过在实际应用中,想要设计一个可以落地的LLM Agent,需要更全面整体的系统设计。本章我们以搜索工具为例,介绍如何更好和搜

    2024年02月10日
    浏览(50)
  • 解密Prompt系列20. LLM Agent之再谈RAG的召回多样性优化

    几个月前我们就聊过RAG的经典方案解密Prompt系列14. LLM Agent之搜索应用设计。前几天刚看完openAI在DevDay闭门会议上介绍的RAG相关的经验,有些新的感悟,借此机会再梳理下RAG相关的优化方案。推荐直接看原视频(外网)A Survey of Techniques for Maximizing LLM Performance RAG最关键的一环其

    2024年02月05日
    浏览(51)
  • 解密Prompt系列22. LLM Agent之RAG的反思:放弃了压缩还是智能么?

    已经唠了三章的RAG,是时候回头反思一下,当前的RAG是解决幻觉的终点么?我给不出直接的答案,不过感觉当前把RAG当作传统搜索框架在大模型时代下的改良,这个思路的天花板高度有限~ 反思来源于对RAG下模型回答的直观感受,最初我们被ChatGPT的能力所震惊,并不是它能背

    2024年02月03日
    浏览(96)
  • 解密Prompt系列8. 无需训练让LLM支持超长输入:知识库 & unlimiformer & PCW & NBCE

    这一章我们聊聊有哪些方案可以不用微调直接让大模型支持超长文本输入,注意这里主要针对无限输入场景。之前在BERT系列中我们就介绍过稀疏注意力和片段递归的一些长文本建模方案长文本建模 BigBird Longformer Reformer Performer,不过以上方案无一例外都需要在训练阶段引入。

    2024年02月08日
    浏览(45)
  • 解密Prompt7. 偏好对齐RLHF-OpenAI·DeepMind·Anthropic对比分析

    前三章都围绕指令微调,这一章来唠唠RLHF。何为优秀的人工智能?抽象说是可以帮助人类解决问题的AI, 也可以简化成3H原则:Helpful + Honesty + Harmless。面向以上1个或多个原则,RLHF只是其中一种对齐方案,把模型输出和人类偏好进行对齐。大体分成3个步骤 人类偏好数据的标注

    2024年02月06日
    浏览(36)
  • 解密Prompt系列10. 思维链COT原理探究

    前一章思维链基础和进阶玩法我们介绍了如何写Chain-of-thought Prompt来激活生成逐步推理,并提高模型解决复杂问题的能力,这一章我们追本溯源,讨论下COT的哪些元素是提升模型表现的核心? 要进行因果分析,需要把思维链中的不同元素拆解开来,然后通过控制变量实验,来

    2024年02月11日
    浏览(47)
  • 【LLM系列之指令微调】长话短说大模型指令微调的“Prompt”

    1 指令微调数据集形式“花样”太多 大家有没有分析过 prompt对模型训练或者推理的影响?之前推理的时候,发现不加训练的时候prompt,直接输入模型性能会变差的,这个倒是可以理解。假如不加prompt直接训练,是不是测试的时候不加prompt也可以?还有一个就是多轮prompt和单轮

    2024年02月14日
    浏览(52)
  • 解密prompt系列26. 人类思考vs模型思考:抽象和发散思维

    在Chain of Thought出来后,出现过许多的优化方案例如Tree of thought, Graph of Thought, Algorithm of Thought等等,不过这些优化的出发点都更加\\\"Machine Like\\\",而非\\\"Human Like\\\", 哈哈不是说机器化不好,仅仅是对AGI的一些个人偏好而已。 所以如果我们从人类思考的角度出发,能否把当前模型的思

    2024年03月10日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包