Lost in the Middle: How Language Models Use Long Contexts

这篇具有很好参考价值的文章主要介绍了Lost in the Middle: How Language Models Use Long Contexts。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文是LLM系列文章,针对《Lost in the Middle: How Language Models Use Long Contexts》的翻译。

摘要

虽然最近的语言模型能够将长上下文作为输入,但人们对它们使用长上下文的情况知之甚少。我们分析了语言模型在两项任务中的性能,这两项任务需要在输入上下文中识别相关信息:多文档问答和键值检索。我们发现,当相关信息出现在输入上下文的开头或结尾时,性能通常最高,而当模型必须在长上下文的中间访问相关信息时,性能会显著降低。此外,即使对于显式长上下文模型,性能也会随着输入上下文的增长而显著降低。我们的分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。

1 引言

2 语言模型

3 多文档问答

4 语言模型如何从输入上下文中检索?

5 为什么语言模型很难使用它们的整个输入上下文?

6 更多的背景总是更好吗?开放领域QA案例研究

7 相关工作

8 结论

我们通过一系列对照实验,实证研究了语言模型如何使用长输入上下文,这两项任务需要在上下文中识别和使用相关信息:多文档问答和键值检索。我们发现,语言模型通常很难在长输入上下文中使用信息,并且随着输入上下文的增长,性能会下降。我们对(i)模型架构、(ii)查询感知上下文化和(iii)指令调整的作用进行了初步调查,以更好地了解这些因素中的每一个可能如何影响语言模型如何使用上下文。最后,我们通过一个开放领域问答的实际案例研究得出结论,发现语言模型读者的表现在检索者回忆之前就已经饱和了。我们的结果和分析提供了对语言模型如何使用其输入上下文的更好理解,并为未来的长上下文模型提供了新的评估协议。文章来源地址https://www.toymoban.com/news/detail-707348.html

到了这里,关于Lost in the Middle: How Language Models Use Long Contexts的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • How to Use the Git Reset Command

    The git reset command is used to move the current branch to a specific commit, effectively resetting the branch to that commit. It allows you to undo commits, unstage changes, or move the branch pointer to a different commit. The basic syntax of git reset is as follows: Here are three common usages of git reset : Soft Reset : To undo the most recent commit w

    2024年02月02日
    浏览(14)
  • How to use notebook in Ubuntu 22.04

    How to use notebook in Ubuntu 22.04

    这个时候,系统会自动打开浏览器,浏览器会自动跳转到页面http://localhost:8888/tree,如下图所示: 如果我们希望停止服务运行,可以在终端窗口中按Ctrl+C,这个时候,终端窗口命令行会出现如下变化 我们再来观察notebook浏览器画面,发现没有任何变化。

    2024年02月10日
    浏览(13)
  • How to use jupyterlab in Ubuntu 22.04

    How to use jupyterlab in Ubuntu 22.04

    这个时候,系统会自动打开浏览器,页面会自动跳转到http://localhost:8888/lab页面。 在终端窗口中按Ctrl+C 切换到浏览器,我们将会看到下面的画面

    2024年02月11日
    浏览(11)
  • USACO12OPEN Balanced Cow Subsets G(meet in the middle)

    洛谷P3067 [USACO12OPEN] Balanced Cow Subsets G 我们定义一个奶牛集合 S S S 是平衡的,当且仅当满足以下两个条件: S S S 非空 S S S 可以被划分为两个集合 A , B A,B A , B ,满足 A A A 里的奶牛产量之和等于 B B B 里的牛奶产量之和 现在给定大小为 n n n 的奶牛集合 S S S ,询问它有多少个子

    2024年02月08日
    浏览(9)
  • Why Large Language Models Hallucinate and How to solve this//LLM为什么产生幻觉以及如何应对

    Why Large Language Models Hallucinate and How to solve this//LLM为什么产生幻觉以及如何应对

    \\\" Large language models (LLMs) can generate fluent and coherent text on various topics and domains, but they are also prone to hallucinations or generating plausible sounding nonsense. This can range from minor inconsistencies to completely fabricated or contradictory statements. The causes of hallucinations are related to data quality, generation methods an

    2024年02月11日
    浏览(9)
  • EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS

    本文是LLM系列文章,针对《EVALUATING HALLUCINATIONS IN CHINESE LARGE LANGUAGE MODELS》的翻译。 在本文中,我们建立了一个名为HalluQA (Chinese Hallucination question - answers)的基准来测量中文大型语言模型中的幻觉现象。HalluQA包含450个精心设计的对抗性问题,跨越多个领域,并考虑到中国的历

    2024年02月07日
    浏览(11)
  • How to use the Arduino-ESP32 Library as an ESP-IDF Component

    How to use the Arduino-ESP32 Library as an ESP-IDF Component

    arduino-esp32 SDK ESP-IDF SDK ESP-IDF Environment Setup Guide Arduino Environment Setup Guide Arduino as an ESP-IDF component Currently, the latest Master version of the arduino-esp32 SDK requires the usage of ESP-IDF SDK environment version v4.4. For the different versions of the arduino-esp32 SDK and their corresponding ESP-IDF SDK versions, please refer t

    2024年02月15日
    浏览(18)
  • In-Context Retrieval-Augmented Language Models

    本文是LLM系列文章,针对《In-Context Retrieval-Augmented Language Models》的翻译。 检索增强语言建模(RALM)方法在生成过程中对基础语料库中的相关文档设置语言模型(LM),可以显著提高语言建模性能。此外,它们可以缓解事实上不准确的文本生成问题,并提供自然的来源归因机

    2024年02月10日
    浏览(9)
  • Demystifying Prompts in Language Models via Perplexity Estimation

    Demystifying Prompts in Language Models via Perplexity Estimation

    原文链接 Gonen H, Iyer S, Blevins T, et al. Demystifying prompts in language models via perplexity estimation[J]. arXiv preprint arXiv:2212.04037, 2022. 简单来说就是作者通过在不同LLM和不同任务上的实验,发现 低困惑度的prompt更能提升LLM的性能 ,如下图所示,困惑度和acc大致呈一个负相关的趋势。 作者为

    2024年02月13日
    浏览(3)
  • 【已解决】git 撤销上次提交后修改文件再次提交 触发:Cannot do a soft reset in the middle of a merge

    记录一次 git 操作 git 撤销上次提交后修改文件,然后同步触发以下命令及报错(报错来源与git输出面板) 同步包含两步: pull push git pull 此次合并未处理(变更记录未覆盖任何冲突处) git pull 此次合并未处理干净(变更记录未完全覆盖所有冲突处) git pull 此次拉取前未提交

    2024年02月15日
    浏览(10)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包