Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement

这篇具有很好参考价值的文章主要介绍了Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement

文章链接

Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement,自然语言处理,语言模型,人工智能,自然语言处理
核心思想是通过instruction让LLM来优化问题本身,从而达到更好的效果,且这种针对问题的优化可以跟其他的prompt技术,如CoT或者Least-to-Most相结合。

作者提出了一些重述问题的准则:
(1)简短:问题不要太长,确保容易理解
(2)清晰:问题表述清晰,能量化的部分就量化
(3)聚焦:想问的问题应该突出
(4)清除无关信息

作者说因为不好构建数据库,所以训练一个模型来搞这件事很麻烦,他们转而寻求不用训练的办法。

在zero-shot的setting下,方法很简单,通过给LLM instruction让LLM按照之前说的准则修改问题表述。而在few-shot的setting下,作者会展示一些样例给LLM,让LLM参照样例去移除无关信息、重排条件、整合相关条件等,如下
Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement,自然语言处理,语言模型,人工智能,自然语言处理
注意到右侧还有个An,按照作者的说法这是问题的答案,然而这个答案似乎不太对,显然左边的数学题答案应该是1220+510=290,不知道作者是粗心大意了还是LLM真的做错了😂总而言之,这个过程表达的意思是改进和做题交替进行,如果连续两次得到的答案相同,说明答案收敛,以此作为输出,作者称其为progressive problem-refining。

上述重写问题的效果则如下图所示,
Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement,自然语言处理,语言模型,人工智能,自然语言处理
可以看到在davinci-003的情况下表现均有所提升,且基本上progressive>few-shot>zero-shot,说明refinement是有效果的。以及下面是在不同LLM上的效果。

Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement,自然语言处理,语言模型,人工智能,自然语言处理
之后,作者还展示了该方法和其他prompt方法结合,比如CoT和Least-to-Most,均有提升。
Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement,自然语言处理,语言模型,人工智能,自然语言处理
最后,作者针对progressive中的两个变量:迭代次数和最终答案选取做了消融实验。结果表明迭代次数越多,性能提升越大。同时在迭代次数少的时候采信最后一次迭代的答案正确率高,而次数多了以后投票的正确率高。文章来源地址https://www.toymoban.com/news/detail-709669.html

到了这里,关于Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》【大模型思维链】

    思维链,是一系列中间推理步骤,可以显著提高大语言模型执行复杂推理的能力。 思维链:一种简单的提示方法,通过一系列的中间推理步骤,可以大大提高大语言模型执行复杂推理的能力。 下图为使用标准提示词和使用思维链提示词的输出的区别: 与传统Prompt的区别:

    2024年04月23日
    浏览(30)
  • Fine-tuning Large Enterprise Language Models via Ontological Reasoning

    本文是LLM系列文章,针对《Fine-tuning Large Enterprise Language Models via Ontological Reasoning》的翻译。 大型语言模型(LLM)利用特定任务的训练数据,将微调作为一种适应不同目标的技术。任务特异性应该与领域定向齐头并进,即LLM的专业化,以准确地处理给定感兴趣领域的任务。然

    2024年02月09日
    浏览(47)
  • Bring Your Data!Self- supervised Evolution of Large Language Models

    这篇论文提出了一种自监督的评估方式来衡量大型语言模型的能力和局限性。常规的基于数据集的评估方式存在一些缺点: 需要不断新建数据集。 存在数据集和模型训练数据交叉的问题,影响评估结果。 难以评估模型在实际部署中的表现。为了弥补这些缺点,论文提出了自监督

    2024年02月16日
    浏览(46)
  • 论文阅读之Multimodal Chain-of-Thought Reasoning in Language Models

    本文主要对2023一篇论文《Multimodal Chain-of-Thought Reasoning in Language Models》主要内容进行介绍。 大型语言模型(LLM)通过利用思想链(CoT)提示生成中间推理链作为推断答案的基本原理,在复杂推理方面表现出了令人印象深刻的性能。然而,现有的CoT研究主要集中在语言模态上。

    2024年03月14日
    浏览(51)
  • EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS

    本文是LLM系列文章,针对《EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS》的翻译。 在本文中,我们建立了一个名为HalluQA (Chinese Hallucination question - answers)的基准来测量中文大型语言模型中的幻觉现象。HalluQA包含450个精心设计的对抗性问题,跨越多个领域,并考虑到中国的历

    2024年02月07日
    浏览(41)
  • Secrets of RLHF in Large Language Models Part I: PPO

    本文是LLM系列文章,针对《Secrets of RLHF in Large Language Models Part I: PPO》的翻译。 大型语言模型(LLM)为通用人工智能的发展制定了蓝图。它的主要目标是作为一个以人为本(乐于助人、诚实无害)的助手。与人类保持一致具有至关重要的意义,人类反馈强化学习(RLHF)成为支

    2024年02月07日
    浏览(137)
  • Making Large Language Models Perform Better in Knowledge Graph Completion论文阅读

    原文链接: Making Large Language Models Perform Better in Knowledge Graph Completion 基于大语言模型(LLM)的知识图补全(KGC) 旨在利用 LLM 预测知识图谱中缺失的三元组 ,并丰富知识图谱,使其成为更好的网络基础设施,这可以使许多基于网络的自动化服务受益。然而,基于LLM的KGC研究有

    2024年01月23日
    浏览(48)
  • [论文阅读笔记] TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models

    TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models arXiv2023 复旦大学 Benchmark、Continual Learing、LLMs 已经对齐过的大模型 (Aligned LLMs )能力很强,但持续学习能力缺乏关注; 目前CL的benchmark对于顶尖的LLMs来说过于简单,并且在指令微调存在model的potential exposure。(这里的

    2024年01月18日
    浏览(61)
  • 论文解读:Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models

    核心要点 针对大模型幻觉问题进行综述,从detection、explanation和mitigation三个方面进行介绍; 对幻觉现象和评估基准进行归纳,分析现有的缓解幻觉的方法,讨论未来潜在的研究发展 相关文献整理:https://github.com/HillZhang1999/llm-hallucination-survey 一、什么是大模型的幻觉 大模型

    2024年02月02日
    浏览(53)
  • 【论文笔记】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    将LLMs应用于医学,以协助医生和病人护理,成为人工智能和临床医学领域的一个有前景的研究方向。为此, 本综述提供了医学中LLMs当前进展、应用和面临挑战的全面概述 。 具体来说,旨在回答以下问题: 1)什么是LLMs,如何构建医学LLMs? 2)医学LLMs的下游表现如何? 3)

    2024年02月03日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包