【论文笔记】Active Retrieval Augmented Generation

这篇具有很好参考价值的文章主要介绍了【论文笔记】Active Retrieval Augmented Generation。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【FLARE】Active Retrieval Augmented Generation

论文题目:Active Retrieval Augmented Generation

论文地址:Active Retrieval Augmented Generation - ACL Anthology

会议:EMNLP 2023 main (Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing)

github 链接:jzbjyb/FLARE: Forward-Looking Active REtrieval-augmented generation (FLARE) (github.com)

笔记参考: Better RAG with Active Retrieval Augmented Generation FLARE (lancedb.com)

Abstract

【论文笔记】Active Retrieval Augmented Generation,llm,nlp,论文阅读,自然语言处理,人工智能,transformer,笔记,深度学习

传统方法采用retrieve-and-generate 的范式进行检索增强,这种方式一般仅检索一次。本文提出了一种名为Forward-Looking Active REtrieval augmented generation (FLARE)的主动检索的方法,可以在生成过程中主动决定何时检索以及检索的内容

具体来说,它迭代式地对 待生成的句子进行预测,如果预测的句子中含有低置信度的token,就使用预测的结果作为query检索相关文档,然后重新生成句子。

long-form / short-form

单次检索增强大模型比纯参数化的模型在 short-form knowledge-intensive generation task上表现更好,这种任务的信息需求在用户的输入中是明确的,并且仅基于输入来检索相关知识就足够了。

short-form knowledge-intensive generation task 比如 factoid question answering

long-form knowledge-intensive generation task 比如long-form QA, open-domain summarization,chain-of-thought reasoning 任务。

而long-form的任务需要的信息常常在输入中不明显,与人类写文章时的过程类似,往往需要在生成的过程中多次收集信息。

多次检索方法的策略

之前的文章提出了两类多次检索的策略,但这些都不是主动决定何时检索以及检索内容。

  1. 每生成固定的n个token就找回一次【1】(In-Context RALM)【2】(IRCoT)

  2. 将问题分解为多个子问题,每个子问题检索一次,如多跳QA问题

    multihop QA问题指需要阅读多个段落才能回答问题

核心思想

主动决定何时检索和检索的内容,并将检索到的内容会拼接在用户输入之前以辅助未来的生成。

何时检索: 当模型缺少相关知识时。因此作者认为当模型产生低概率或低置信度的token时说明LLM缺乏相关知识,需要进行检索。

检索什么:通过生成一个临时的下一个句子来预测未来,使用它作为查询来检索相关文档,然后结合检索到的文档重新生成下一个句子。

FLARE

原则

  • 当需要信息时LLM才去检索
  • 使用的query应该考虑未来生成的内容

提出了两类方法:

  • F L A R E i n s t r u c t FLARE_{instruct} FLAREinstruct ,此方法使用鼓励检索的instruction,指示大模型在需要检索的时候生成检索query
  • F L A R E d i r e c t FLARE_{direct} FLAREdirect,此方法直接使用LLM生成的内容作为检索query,它迭代地生成下一个句子,如果生成的句子中有低概率的token,就进行检索并重新生成下一个句子。

使用检索 instruction的FLARE ( F L A R E i n s t r u c t FLARE_{instruct} FLAREinstruct

【论文笔记】Active Retrieval Augmented Generation,llm,nlp,论文阅读,自然语言处理,人工智能,transformer,笔记,深度学习

这种方式参考了Toolformer【3】的方式,模型通过输出**[Search(query)]**来表达检索信息的需求。

Toolformer 可以决定调用哪些 API、何时调用它们、传递哪些参数以及如何最好地将结果合并到未来的令牌预测中

如上图,分别产生了两个[Search(query)]进行检索信息。

这种方式在使用时既需要指导大模型完成任务的指令,又需要指导大模型生成检索query的指令,同时可能还需要指导大模型i将两者结合起来的指令。如下图

【论文笔记】Active Retrieval Augmented Generation,llm,nlp,论文阅读,自然语言处理,人工智能,transformer,笔记,深度学习

疑问,当需要检索时,模型生成会停止。而当检索到内容后,怎么让LLM结合检索的内容在停止的地方接着生成?

应该是在检索到相关文档后,将文档放在用户query的前部,然后去掉上一步生成的检索query,指示大模型继续生成。

缺陷

  1. LM不太愿意生成主动召回的标识。解决方法:将"[“对应的logit乘以2,以提高生成”["的概率。
  2. 过于频繁的主动召回可能导致生成经常被打断,影响生成的质量。解决方法:每当LLM生成一个"[“时,得到一个query,从而得到相关文档后,从生成中去掉检索query,并再接下来几个token的生成过程中,给”[“的logit加上一个较大的负值,从而禁止LLM生成”["。
  3. 这种方案需要微调大模型才能得到很好的生成检索query的效果。

根据置信度进行检索的FLARE( F L A R E d i r e c t FLARE_{direct} FLAREdirect

【论文笔记】Active Retrieval Augmented Generation,llm,nlp,论文阅读,自然语言处理,人工智能,transformer,笔记,深度学习

  1. 根据用户的input作为初始query,进行第一次召回,检索到相关文档
  2. FLARE迭代地生成一个临时的下一句(没生成64个token,用NLTK工具从里面找到第一个完整的句子,扔掉多余的token)
  3. 检查是否有低概率的token,如果有,针对这个句子进行检索,召回相关文档。
  4. 利用召回出来的文本,重新生成这个句子,然后进行下一个句子的生成。

如果重新生成的句子中也有置信度低的怎么办?

利用含有低概率token句子进行检索的方法有两种。

【论文笔记】Active Retrieval Augmented Generation,llm,nlp,论文阅读,自然语言处理,人工智能,transformer,笔记,深度学习

  1. 屏蔽掉低置信度的token,然后进行向量召回
  2. 利用大模型的能力,对置信度低的部分进行提问,生成一个问题,用生成的问题进行检索

Self-ask 【4】也实现了在回答初始问题前生成显示query,但这种方法需要手动在下游任务中插入后续问题作为示例。

实验

在text-davinci-003的API上测试本方法

检索器:BM25用来检索Wikipedia dump, Bing search engine用来检索开放的网络信息

数据集

  • MultihopQA:2WikiMultihopQA

  • Commonsense reasoning:StrategyQA

  • Long-form QA:ASQA

  • Open-domain summarization:WikiAsp

结论

  • 前瞻性的主动检索是非常有效的,而使用前一个句子进行检索的改进相对较小,我们假设这主要是因为前一个句子经常描述与下一个句子不同的实体或关系。

  • F L A R E i n s t r u c t FLARE_{instruct} FLAREinstruct效果不算好,说明教LM使用任务通用检索指令和范例生成搜索查询是具有挑战性的。

  • 对40%-80%的句子进行触发检索,通常会导致跨任务/数据集的良好表现

相关工作

在文本和代码生成任务中人们研究了迭代检索和细化。【5】【6】【7】本文与它们的不同在于生成的粒度和检索策略的不同。

主动检索方面,一些研究【8】【9】关注于单次检索场景,基于问题流行度以及生成概率,而本文关注需要主动信息访问的长文本生成任务。

限制

  • 在Wizard of Wikipedia上,需要生成较短文本(20token)时,本方法不那么有效
  • 在ELI5(需要深入研究开放式问题的长篇QA数据集)上,由于检索和评估时的真实生成困难【10】导致单次检索和FLARE相比于不见所都没有明显提升
  • 直接的方式实现交替进行生成和检索会导致成本增加
  • LLM需要被激活多次(每次检索一次),而一个无缓存的实现还需要在每次检索后重新计算之前的激活值。

References

【1】[2302.00083] In-Context Retrieval-Augmented Language Models (arxiv.org)

【2】ACL 2023 long Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions - ACL Anthology

【3】[2302.04761] Toolformer: Language Models Can Teach Themselves to Use Tools (arxiv.org)

【4】EMNLP 2023 findings Measuring and Narrowing the Compositionality Gap in Language Models - ACL Anthology

【5】[2302.12813] Check Your Facts and Try Again: Improving Large Language Models with External Knowledge and Automated Feedback (arxiv.org)

【6】EMNLP 2023 [2303.12570] RepoCoder: Repository-Level Code Completion Through Iterative Retrieval and Generation (arxiv.org)

【7】COLING 2022 Generate-and-Retrieve: Use Your Predictions to Improve Retrieval for Semantic Parsing - ACL Anthology

【8】ACL 2023 long [2212.10511] When Not to Trust Language Models: Investigating Effectiveness of Parametric and Non-Parametric Memories (arxiv.org)

【9】ACL 2023 findings [2305.10998] The Web Can Be Your Oyster for Improving Large Language Models (arxiv.org)

【9】ACL 2023 findings [2305.10998] The Web Can Be Your Oyster for Improving Large Language Models (arxiv.org)

【10】NAACL 2021 main[2103.06332] Hurdles to Progress in Long-form Question Answering (arxiv.org)文章来源地址https://www.toymoban.com/news/detail-841661.html

到了这里,关于【论文笔记】Active Retrieval Augmented Generation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Elasticsearch:使用 Open AI 和 Langchain 的 RAG - Retrieval Augmented Generation (三)

    这是继之前文章: Elasticsearch:使用 Open AI 和 Langchain 的 RAG - Retrieval Augmented Generation (一) Elasticsearch:使用 Open AI 和 Langchain 的 RAG - Retrieval Augmented Generation (二) 的续篇。在今天的文章中,我将详述如何使用 ElasticsearchStore。这也是被推荐的使用方法。如果你还没有设置好

    2024年02月08日
    浏览(45)
  • Elasticsearch:使用 Open AI 和 Langchain 的 RAG - Retrieval Augmented Generation (一)

    最近看了一个同事的几个视频。他总结的很好。在使用 LangChain 时,根据 LangChain 的官方文档 https://integrations.langchain.com/vectorstores,目前有三种方法可以进行使用:ElasticVectorSearch,ElasticsearchStore 及 ElasticKnnSearch。 我们从上面的 小红心 来看,Elasticsearch 无疑是最受欢迎的向量

    2024年02月03日
    浏览(41)
  • 【论文阅读】REPLUG: Retrieval-Augmented Black-Box Language Models

    原文地址:REPLUG: Retrieval-Augmented Black-Box Language Models 本文提出 REPLUG ,一个将语言模型视为黑盒检索增强的语言模型架构。在 REPLUG 中,仅将检索得到的文档拼接到原有输入前面即可,不需要像以前一样更新语言模型参数。该架构中可以通过更新检索器进一步提升性能。 给一

    2024年02月11日
    浏览(42)
  • 论文阅读---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增强语言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知识: BERT (Bidirectional Encoder Representations from Transformers)是一种预训练语言模型,它通过在大规模文本数据上进行预训练,学习文本的双向表示,并在多种NLP任务中展现出卓越的性能。BERT的双向性意味着它能够

    2024年04月23日
    浏览(41)
  • Re58:读论文 REALM: Retrieval-Augmented Language Model Pre-Training

    诸神缄默不语-个人CSDN博文目录 诸神缄默不语的论文阅读笔记和分类 论文名称:REALM: Retrieval-Augmented Language Model Pre-Training 模型名称:Retrieval-Augmented Language Model pre-training (REALM) 本文是2020年ICML论文,作者来自谷歌,关注RAG+LLM。目标是解决纯用LM参数储存知识就得让LM尺寸越来

    2024年02月04日
    浏览(45)
  • Retrieval-Augmented Multimodal Language Modeling

    本文是LLM系列文章,针对《Retrieval-Augmented Multimodal Language Modeling》的翻译。 最近的多模态模型,如DALL-E和CM3,在文本到图像和图像到文本生成方面取得了显著进展。然而,这些模型将其所有知识(例如,埃菲尔铁塔的外观)存储在模型参数中,需要越来越大的模型和训练数据

    2024年02月12日
    浏览(42)
  • In-Context Retrieval-Augmented Language Models

    本文是LLM系列文章,针对《In-Context Retrieval-Augmented Language Models》的翻译。 检索增强语言建模(RALM)方法在生成过程中对基础语料库中的相关文档设置语言模型(LM),可以显著提高语言建模性能。此外,它们可以缓解事实上不准确的文本生成问题,并提供自然的来源归因机

    2024年02月10日
    浏览(50)
  • Decoupling Knowledge from Memorization: Retrieval-augmented Prompt Learning

    本文是LLM系列的文章,针对《Decoupling Knowledge from Memorization: Retrieval 提示学习方法在仍然遵循基于参数的学习范式的同时,通过诱导更好的小样本表现,在自然语言处理中掀起了波澜;学习中的遗忘和死记硬背问题可能会遇到不稳定的泛化问题。具体来说,在完全监督的训练

    2024年02月11日
    浏览(47)
  • Authenticated private information retrieval-论文笔记

    论文发表在 32nd USENIX Security Symposium (USENIX Security 23), 2023•usenix.org 论文作者 :Simone Colombo, EPFL; Kirill Nikitin, Cornell Tech; Henry Corrigan-Gibbs, MIT;David J. Wu, UT Austin; Bryan Ford, EPFL 论文链接 :https://www.usenix.org/system/files/sec23fall-prepub-78-colombo.pdf 1.1  Private Information Retrieval         隐私

    2024年02月04日
    浏览(46)
  • Attentive Moment Retrieval in Videos论文笔记

    2018 Attentive Moment Retrieval in Videos 设计了一种记忆注意机制来强调查询中提到的视觉特征,并同时合并它们的上下文,在DiDeMo and TACoS两个数据集表现的比较好。 候选时刻的选择和相关性估计是任务的关键所在,目前常见的方法是在不同尺度上对滑动窗口进行密集采样。但是这

    2024年02月11日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包