Shepherd: A Critic for Language Model Generation

这篇具有很好参考价值的文章主要介绍了Shepherd: A Critic for Language Model Generation。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文是LLM系列的相关文章,针对《Shepherd: A Critic for Language Model Generation》的翻译。

摘要

随着大型语言模型的改进,人们对利用这些模型的能力来完善其自身输出的技术越来越感兴趣。在这项工作中,我们介绍了Shepherd,这是一个专门针对批评模型响应和建议改进的语言模型,它超越了未经编辑的模型的能力,可以识别各种错误并提供补救建议。我们方法的核心是一个高质量的反馈数据集,我们根据社区反馈和人类注释对其进行策划。尽管Shepherd很小(7B参数),但它的批评与包括ChatGPT在内的已建立模型的批评是等效的或首选的。使用GPT4进行评估,与竞争对手相比,Shepherd的平均胜率为53-87%。在人类评估中,Shepherd严格优于其他模型,平均而言与ChatGPT密切相关。

1 引言

2 数据收集

3 Shepherd模型

4 评估反馈

5 结果

6 相关工作

7 结论

我们引入了一个新的模型来批评大型语言模型的生成。通过在多个数据集和不同的评估设置上进行广泛的实验,我们证明了我们的模型可以有效地评判答案,达到与ChatGPT相当的性能。随着LLM在越来越多的现实应用中被采用,我们认为开发自动机制来检查模型生成是很重要的。我们的批判模型Shepherd可以非常有助于提高生成质量和减少幻觉。

不足

在本文中,我们通过自动评估和人的评估来评估模型的批判能力。尽管我们努力尝试大量的数据示例,并尽我们最大的财力使用人工注释器,但很明显,该论文可以从进一步的增强中受益。这可以通过执行更细致的分析来实现,该分析使用了更多的注释器和更广泛的各种任务。文章来源地址https://www.toymoban.com/news/detail-664268.html

到了这里,关于Shepherd: A Critic for Language Model Generation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文笔记:Spatial-Temporal Large Language Model for Traffic Prediction

    arxiv 2024 时空+大模型

    2024年04月24日
    浏览(49)
  • 论文阅读【自然语言处理-预训练模型2】BART:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation

    BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension BART: 用于自然语言生成、翻译和理解的去噪序列对序列预训练 【机构】:Facebook AI 【作者】:Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoye

    2024年02月03日
    浏览(54)
  • A Framework for Accelerating Transformer-Based Language Model on ReRAM-Based Architecture(论文笔记)

    (发现问题): 在基于RRAM的加速器中,自注意力层在收集输入序列信息的过程中,需要所有输入序列词的前一层结果,由于输入实例在不同的时间步上被串行处理。 因此,自注意层一直保持停滞,直到上一层计算的结束。这就是数据危险,增加了在基于RRAM加速器上处理基于

    2024年03月25日
    浏览(58)
  • X2-VLM: All-In-One Pre-trained Model For Vision-Language Tasks论文笔记

    Title:X2-VLM: All-In-One Pre-trained Model For Vision-Language Tasks Code CLIP这一类方法只能进行图片级别的视觉和文本对齐; 也有一些方法利用预训练的目标检测器进行目标级别的视觉和文本对齐,但是只能编码目标内部的特征,无法有效表达多目标上下文关联; 本文致力于进行多粒度(

    2024年02月09日
    浏览(42)
  • Video-LLaMA An Instruction-tuned Audio-Visual Language Model for Video Understanding 用于视频理解的指令调谐视听语言

    我们提出了一个多模态框架Video-LLaMA1,它使 大型语言模型(LLM)能够理解视频中的视觉和听觉内容 。视频-来自 冻结的预训练视频和音频编码器和冻结的LLM的美洲驼引导跨模式训练 。不像以前的工作, 补充线性最小二乘法只处理视觉或听觉信号 (朱等,2023;刘等,2023;Huang

    2024年02月03日
    浏览(48)
  • Causal Language Modeling和Conditional Generation有什么区别

    和ChatGPT一起学习! 因果语言建模(Causal Language Modeling,简称CLM)和条件生成(Conditional Generation)是自然语言处理(NLP)和深度学习中的两个相关概念。尽管它们在某种程度上有所重叠,但它们在目标和方法上有一定的区别。 因果语言建模(Causal Language Modeling): 因果语言

    2024年02月01日
    浏览(29)
  • 语言模型(language model)

    语言模型是一种用于预测文本序列中下一个词或字符的概率分布的模型。它可以捕获语言结构的某些方面,如语法、句式和上下文信息。传统的语言模型通常使用N-gram方法或隐藏马尔可夫模型,但这些模型往往不能捕捉到长距离依赖和复杂的语义信息。 通俗来讲 语言模型评

    2024年02月11日
    浏览(37)
  • 论文笔记--Increasing Diversity While Maintaining Accuracy: Text Data Generation with Large Language Mode

    标题:Increasing Diversity While Maintaining Accuracy: Text Data Generation with Large Language Models and Human Interventions 作者:John Joon Young Chung, Ece Kamar, Saleema Amershi 日期:2023   文章给出了一种基于LLM自动生成训练数据的方法,且通过不同的实验设置尝试增加生成数据的多样性而又不降低数据

    2024年02月03日
    浏览(44)
  • LLM(Large Language Model)大语言模型

    语言模型够大,训练的语料够多,涌现出推理能力飙升等   Generative Pre-trained Transformer 3(GPT-3)是最著名的LLM之一,拥有1750亿个参数。该模型在文本生成、翻译和其他任务中表现出显著的性能,在全球范围内引起了热烈的反响,目前OpenAI已经迭代到了GPT-4版本 Generative :能产

    2024年02月15日
    浏览(39)
  • Truncation Sampling as Language Model Desmoothing

    本文是LLM系列文章,针对《Truncation Sampling as Language Model Desmoothing》的翻译。 来自神经语言模型的长文本样本可能质量较差。截断采样算法(如top-p或top-k)通过在每一步将一些单词的概率设置为零来解决这一问题。这项工作为截断的目的提供了框架,并为此目的提供了一种改

    2024年02月10日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包