Secrets of RLHF in Large Language Models Part I: PPO

这篇具有很好参考价值的文章主要介绍了Secrets of RLHF in Large Language Models Part I: PPO。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文是LLM系列文章,针对《Secrets of RLHF in Large Language Models Part I: PPO》的翻译。

摘要

大型语言模型(LLM)为通用人工智能的发展制定了蓝图。它的主要目标是作为一个以人为本(乐于助人、诚实无害)的助手。与人类保持一致具有至关重要的意义,人类反馈强化学习(RLHF)成为支撑这一追求的关键技术范式。目前的技术路线通常包括衡量人类偏好的奖励模型、优化政策模型输出的近端策略优化(PPO)以及提高逐步推理能力的过程监督。然而,由于奖励设计、环境交互和代理训练的挑战,再加上大型语言模型的巨大试错成本,人工智能研究人员在激励LLM的技术对齐和安全着陆方面存在重大障碍。RLHF的稳定训练仍然是一个谜。
在第一份报告中,我们剖析了RLHF的框架,重新评估了PPO的内部工作,并探讨了组成PPO算法的部分如何影响策略代理训练。我们确定策略约束是PPO算法有效实现的关键因素。因此,我们探索了PPO算法的高级版本PPO max,以有效地提高策略模型的训练稳定性。基于我们的主要结果,我们与SFT模型和ChatGPT进行了RLHF能力的全面分析。除了额外的定性结果外,我们甚至发现,通过我们的算法成功训练的LLM通常可以更好地理解查询的深层含义,其响应更能直接击中人们的灵魂。
开源实现的缺乏对LLM一致性的调查提出了重大挑战。因此,我们迫切希望发布技术报告、奖励模型和PPO代码,旨在为LLM的发展做出适度贡献。

1 引言

2 相关工作

3 人类反馈的强化学习

4 有益和无害的奖励模型

5 PPO的探索

6 评估和讨论

局限性

探索RLHF确实是一个有价值但孤独的方向,我们很高兴实验室的核心骨干能够坚定地探索一个不确定的方向。此外,在过去的几个月里,每个人都充满了激情和动力。RLHF不仅允许模型实现人与人之间的一致性,而且似乎可以使每个人的意愿一致。
千里之行始于足下。尽管我们已经迈出了RLHF的第一步,但由于时间和资源的限制,这项工作仍有以下限制:
缩放定律。虽然我们的研究主要集中在70亿参数的模型上,但我们尚未研究模型大小和数据规模对RLHF性能的影响。
奖励模型。我们的实验是基于公开的英语人类偏好数据集和少量自建的中文数据。我们所掌握的数据的质量和数量可以说不足以对奖励模型进行全面评估。
评估指标。我们的评估标准在很大程度上依赖于手动评估和GPT-4自动评估。我们没有利用大量可用的基准和NLP任务来对我们的模型进行详细评估。
绩效指标。我们在PPO阶段的重点是实现稳定性,而不是提高最终性能。虽然稳定至关重要,但它并不一定能保证结果的改善。此外,奖励分数不能可靠地用作预测训练阶段期间RLHF表现的指标。这意味着需要在训练阶段寻求一个更合适的绩效指标。文章来源地址https://www.toymoban.com/news/detail-732933.html

到了这里,关于Secrets of RLHF in Large Language Models Part I: PPO的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文笔记】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    将LLMs应用于医学,以协助医生和病人护理,成为人工智能和临床医学领域的一个有前景的研究方向。为此, 本综述提供了医学中LLMs当前进展、应用和面临挑战的全面概述 。 具体来说,旨在回答以下问题: 1)什么是LLMs,如何构建医学LLMs? 2)医学LLMs的下游表现如何? 3)

    2024年02月03日
    浏览(44)
  • A Survey of Large Language Models

    本文是LLM系列的第一篇文章,针对《A Survey of Large Language Models》的翻译。 自从20世纪50年代提出图灵测试以来,人类一直在探索通过机器掌握语言智能。语言本质上是一个由语法规则控制的复杂的人类表达系统。开发能够理解和掌握语言的人工智能算法是一个重大挑战。在过

    2024年02月09日
    浏览(61)
  • 论文阅读 A Survey of Large Language Models 3

    为了检验LLM的有效性和优越性,大量的任务和基准被用来进行实证评估和分析。我们首先介绍了LLM语言生成和理解的三种基本评估任务,然后介绍了LLM具有更复杂设置或目标的几个高级任务,最后讨论了现有的基准和实证分析。 在这一部分中,我们主要关注LLM的三种评估任务

    2024年02月13日
    浏览(45)
  • EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS

    本文是LLM系列文章,针对《EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS》的翻译。 在本文中,我们建立了一个名为HalluQA (Chinese Hallucination question - answers)的基准来测量中文大型语言模型中的幻觉现象。HalluQA包含450个精心设计的对抗性问题,跨越多个领域,并考虑到中国的历

    2024年02月07日
    浏览(39)
  • A Survey on Evaluation of Large Language Models

    这是LLM相关的系列文章,针对《A Survey on Evaluation of Large Language Models》的翻译。 大型语言模型(LLM)由于其在各种应用中前所未有的性能,在学术界和工业界都越来越受欢迎。随着LLM在研究和日常使用中继续发挥重要作用,其评估变得越来越重要,不仅在任务层面,而且在社

    2024年02月13日
    浏览(40)
  • 大模型 LLM 综述, A Survey of Large Language Models

    一般认为NLP领域的大模型=10 Billion参数(也有人认为是6B、7B, 工业界用, 开始展现涌现能力); 经典大模型有GPT-3、BLOOM、Flan-T5、GPT-NeoX、OPT、GLM-130B、PaLM、LaMDA、LLaMA等; 大模型时间线, 图来自A Survey of Large Language Models,下同。 2.1 涌现 涌现, emerge(abilities), 即一般指在大模型中出现

    2024年02月08日
    浏览(57)
  • YaRN: Efficient Context Window Extension of Large Language Models

    本文是LLM系列文章,针对《YaRN: Efficient Context Window Extension of Large Language Models》的翻译。 旋转位置嵌入(RoPE)已被证明可以在基于Transformer的语言模型中有效地编码位置信息。然而,这些模型无法推广到它们所训练的序列长度。我们提出了YaRN(另一种RoPE扩展方法),这是一

    2024年02月09日
    浏览(40)
  • 论文《LoRA: Low-Rank Adaptation of Large Language Models》阅读

    今天带来的是由微软Edward Hu等人完成并发表在ICLR 2022上的论文《LoRA: Low-Rank Adaptation of Large Language Models》,论文提出了大模型 tuning 框架 LoRA ( Lo w- R ank A daptation)。 论文地址:https://openreview.net/pdf?id=nZeVKeeFYf9 附录下载地址:https://openreview.net/attachment?id=nZeVKeeFYf9name=supplementa

    2024年02月11日
    浏览(52)
  • 【论文阅读】LoRA: Low-Rank Adaptation of Large Language Models

    code:GitHub - microsoft/LoRA: Code for loralib, an implementation of \\\"LoRA: Low-Rank Adaptation of Large Language Models\\\" 做法: 把预训练LLMs里面的参数权重给 冻结 ; 向transformer架构中的每一层, 注入 可训练的 rank decomposition matrices-(低)秩分解矩阵,从而可以显著地减少下游任务所需要的可训练参

    2024年02月03日
    浏览(47)
  • 【论文精读】LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS

    当下大模型时代最火的低资源微调大模型方法之一,方法简单易懂,道理清晰明了,对未来的工作有很强的启发性。如果想要深入了解LoRA的底层原理,建议仔细看一看这篇文章,如果只是应用,那么简单了解就好了~ 大模型预训练后的全量微调往往由于算力缺口而不可行,因

    2024年02月10日
    浏览(124)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包