NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

这篇具有很好参考价值的文章主要介绍了NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

  • 大模型
  • 自然语言处理
  • 机器学习

传统的文本语言模型倾向于两阶段的训练模式,即首先在大规模语料库上进行预训练,然后在目标下游任务上进行微调这种方式会受数据标注质量过拟合等多方面的影响。最近兴起并流行的大型语言模型(large language models,LLMs)已经克服了这类问题,并且会展现出惊人的ICL能力(In-Context Learning),无需对其进行明确的下游任务微调训练,即可执行上下文相关的小样本学习任务。这一观察使语言模型研究者们抛出了这样一个问题:到底是训练阶段中的哪些方面导致了这种上下文学习呢?

NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

 

论文链接:

https://arxiv.org/abs/2205.05055

代码链接:

https://github.com/deepmind/emergent_in_context_learning

本文介绍一项来自DeepMind发表在NeurIPS 2022(Oral)上的工作,在这项工作中,他们对ICL的内部机制进行了探索。作者团队表明,这一现象很大程度上是由训练数据本身的分布驱动的,当训练数据表现出特定的分布特征时,例如数据出现突发性类别分布时(即处于分布尾部的类别数量急剧增加时),ICL就会出现。而且当这些样本的语义并不固定呈现动态变化时,ICL也会进行的更彻底。而对于传统监督学习范式中,每个样本都具有明确的语义属性,这种方式更专注于基于权重的模型学习。

本文作者想到,是否可以将ICL与传统的权重式学习进行有机结合呢,在最初的实验中,模型无法兼顾二者。作者随后从数据分布的角度入手,发现当模型按照有偏的Zipfian分布[1](幂律分布)进行训练时,这两种学习模式可以实现一种权衡。此外还有一个非常重要的发现是,这种ICL只能在Transformer架构中进行上下文学习在传统的递归模型中则无法进行。这也侧面印证了基于Transformer的架构在语言学习中更具优势,如果能进一步研究其与训练数据分布之间的理论关系,将会更有效的促进”具有魔力“的ICL。

一、引言

ICL可以使基于Transformer的LLMs进行小成本的上下文学习,这其实是一种无需对模型进行梯度更新的优化过程。其与传统的权重学习形成了鲜明对比,后者作为监督学习的标准模式具有一定的局限性,例如学习速度缓慢,对数据标注要求过高等等。而ICL无需明确指定下游任务就可以完成小样本学习任务。这种差异性到底是由什么引起的呢,作者首先考虑了模型架构上的变化,例如Transformer模型目前已在语言学习领域逐渐取代了传统的递归模型,背后的原因就是Transformer架构具有更优秀的上下文学习能力。

除了这种新颖模型架构变化的因素,作者探讨了第二种可能性:模型上下文学习的能力取决于训练数据的分布质量。因此在本文中,作者设计实验来具体操作训练数据的分布情况,并且使用专业度量测算了其对ICL小样本学习的影响。作者选用小样本任务基准进行评估,并且对数据集的原有分布进行调整,来观察数据分布变化是否会直接导致ICL的发生。实验结果表明,当出现突发性的尾部类别数量增加以及样本语义动态变化时,Transformer模型会出现ICL的行为。此外作者还强调,模型架构对于ICL也非常重要,例如像LSTM和RNN这样的经典递归模型,即使在参数规模相同的情况下,仍然无法进行像Transformer结构一样的上下文学习。

二、实验方法

2.1 训练数据

为了在数据层面分析模型在小样本任务中的ICL能力,作者在这里选用了Omniglot数据集[2]进行实验,并且独立创建了新的训练和评估列表。Omniglot数据集是一种专用于小样本学习的标准图像数据集,其由来自国际字母表中的1623个不同的字符类组成,每个类包含20个手写示例。使用Omniglot数据集也方便后续对模型进行专业的小样本能力评估。

NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

具体的训练数据由图像和标签序列组成,如上图所示。其中每个序列的前16个元素包含“上下文”,并由8个图像标签对组成(其中每个图像始终绑定其相应的标签)。最后一个元素是query图像,模型的学习目标是准确预测query的正确标签。

2.2 模型设计

本文的实验模型设计简单直观,输入序列的每个元素首先通过两个编码器(一个用于对整数标签编码的标准嵌入层,一个用于对图像进行编码的ResNet)生成嵌入。随后这些嵌入的tokens被送入到一个因果Transformer模型[3]中,如下图所示。这里作者设置了12层且嵌入向量大小为64的Transformer层,模型最终对输入图像的预测使用softmax交叉熵损失函数进行优化。

NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

 

 

2.3 评估数据

在模型训练结束后,作者遵循标准的小样本学习设置,构建了测试数据集来评估模型的小样本学习能力,其中上下文包括2个不同图像类的随机排序,每个图像类有4个示例,query是从两个图像类之一中随机选择的,在小样本学习中,这种设置称为”2-way 4-shot“问题。此外需要注意的是,此时的评估序列与训练阶段的固定标签不同,这两个图像类别的标签需要进行重新分配,即一个图像类别被分配给0,另一个被分配给1,如下图所示。基于这种设置,模型必须能够理解当前设置中的上下文才可以对query图像进行准确的标签预测,才能够检验出模型真实的ICL能力。

NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

 

但是这样设计也存在一个缺陷,仅设置两个类别(0和1)来进行ICL能力测试,模型预测正确预测的概率为1/2,会出现随机预测恰好命中目标的情况

NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关

 

除了对模型进行ICL测试之外,作者也设计对权重学习的评估序列。由于权重学习的限制,评估序列的样本标签与训练时使用的标签是相同的,如上图所示。因此,模型正确预测标签的唯一方法是依赖于存储在模型权重中的信息。对于这种设置,模型预测正确的概率通常是1/1600。

三、实验结果分析

通过对实验结果进行分析,作者回答了上文提出的几个疑问,下面进行详细介绍。

3.1 什么样的训练数据可以促进ICL?

训练数据分布对于ICL的影响因素主要包括样本突发性、尾部类数量增加、标签的多样性和类内差异明显四个方面。

3.1.1 样本突发性

作者在第一个实验中通过改变训练数据中突发序列与非突发序列的比例来改变训练数据中的突发性水平。通过实验发现,Transformer结构可以在这种数据分布中进行ICL的小样本学习,如下图(a)所示,此外在这种情况下,ICL与权重学习之间已经出现一定的权衡,更大的数据突发程度会导致权重学习的比例下降,如下图(b)所示,而且在特殊情况下,模型可能会逐渐抛弃ICL,完全转向权重学习。

3.1.2 尾部类别数量增加

本文的第二组实验表明,ICL的性能取决于训练类的数量,当训练类别数量从100增加到1600时,ICL的性能会逐渐上升,如下图(a)所示,而权重学习的性能则会呈下降趋势,如下图(b)所示,这一现象符合长尾分布问题中的假设。为了进一步增加原始Omniglot数据集中可用的1623个类别数量,作者对原数据集进行旋转(0°、90°、180°、270°)和翻转(左右)操作,使类别数量增加到12800,这一操作进一步改善了ICL并削弱了权重学习。

3.1.3 标签的多样性

作者在第三组实验中探索了数据语义动态变化的影响,即训练分布中的图像没有完全固定的标签,每个图像类别被分配给多个可能的标签。如果一个类别在同一序列中出现不止一次,则该序列中的所有样本的标签都应该是一致的(这在语言数据分布等自然数据中也很常见)。在下图中,作者展示了增加”标签多样性“对ICL的正向促进作用。

3.1.4 类内差异

第四组实验探索了动态语义变化的另外一种方式,即图像类内本身的差异。在差异性最低的情况下,每个图像类别仅包含一张图像,即给定类别的图像始终相同。在差异性中等的情况下,作者向每个类别中的图像添加了高斯像素噪声,相当于对样本进行重新采样。而在差异性较高的情况下,作者使用完整的Omniglot类别(其中每个类由20个不同的手写的20张不同的图像组成)。通过对这三种差异性进行ICL实验,作者发现更大的类内差异会导致更明显的ICL,如下图所示。

3.2 什么样的训练数据能使ICL和权重学习在同一个模型中共存?

从模型综合能力角度来看,ICL和权重学习都具有各自的优势,如果能够权衡二者,使一个模型同时拥有这两种能力,将会大大提升模型的竞争力。模型一方面可以牢牢记住在训练阶段出现的类别信息,另一方面在面对新类具有突变性的样本时,能够进行快速的ICL。这两种能力正是当下大型语言模型所期盼的。

那如何才能做到这一点?作者在对之前的所有实现进行分析,发现如果保持训练数据按照类别均匀分布,那权重学习始终得不到优化,因此作者推测,可能通过对训练分布进行一种有偏调整,就可以在同一个模型中实现两种类型的学习。在这种调整之下,数据集中的一些类别出现频率较高,而大多数类别出现频率会很低,这种分布也符合一些自然现象,例如单词的分布基本上也符合这种分布,这种形式也被定义为Zipfian(幂律)分布:

3.3 模型架构也非常重要

作者还强调,数据分布并不是促进ICL的唯一决定因素,对模型架构的选择也同样重要。作者使用递归神经网络系列进行了类似的实验,使用普通递归网络替换了Transformer,使用与之前实验相同的训练序列,使用相同的图像和文本编码器,并且进行了全面的超参数搜索。但遗憾的是,在这些实验中,作者发现递归模型根本无法实现ICL,如下图所示。其中图(a)是Transformer的结果,图(b)和图(c)分别为RNN和LSTM的结果。

四、总结

本文对ICL的发生机制进行了探索,与其他工作不同的是,作者以数据分布作为切入点进行研究,并且也获得了不小的理论发现。实验证明,数据中越是蕴藏着丰富的语义变化和差异,ICL进行的也越顺利。作者也进一步研究了ICL与传统权重学习之间的关系,同时提出了一种折中方案使模型能够同时具备这两种学习模式的优势。此外,作者强调了模型架构对ICL的决定性作用,基于Transformer的架构设计天然契合ICL的优化环境,这也是Transformer相比传统递归模型的优势体现。作者还考虑了发展ICL可以对社区产生更加广泛的影响,例如我们也可以从数据层面入手来设计和收集新领域的数据集,以求在语言理解以外的方向中也实现ICL,例如在图像领域也设计一个具备快速上下文学习能力的ICL视觉模型。

参考

[1] George Kingsley Zipf. Human Behavior and the Principle of Least Effort - Google Books, 1949.

[2] Brenden M. Lake, Ruslan Salakhutdinov, and Joshua B. Tenenbaum. The Omniglot Challenge: A 3-Year Progress Report. arXiv:1902.03477 [cs], February 2019. URL http://arxiv.org/abs/ 1902.03477. arXiv: 1902.03477.

[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. page 11, 2017.

作者:seven_Illustration by IconScout Store from IconScout文章来源地址https://www.toymoban.com/news/detail-493030.html

到了这里,关于NeurIPS 2022|DeepMind最新研究:大模型背后的ICL可能与数据分布密切相关的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【NeurIPS 2023】多模态联合视频生成大模型CoDi

    Diffusion Models视频生成-博客汇总 前言: 目前视频生成的大部分工作都是只能生成无声音的视频,距离真正可用的视频还有不小的差距。CoDi提出了一种并行多模态生成的大模型,可以同时生成带有音频的视频,距离真正的视频生成更近了一步。相信在不远的将来,可以AI生成的

    2024年02月07日
    浏览(33)
  • 微软最新研究成果:使用GPT-4合成数据来训练AI模型,实现SOTA!

    文本嵌入是各项NLP任务的基础,用于将自然语言转换为向量表示。现有的大部分方法通常采用 复杂的多阶段训练流程 ,先在大规模数据上训练,再在小规模标注数据上微调。此过程依赖于手动收集数据制作正负样本对,缺乏任务的多样性和语言多样性。 此外,大部分方法采

    2024年02月02日
    浏览(48)
  • 思维映像化:AI读心术惊艳亮相NeurIPS大会!模型精准翻译脑电波

    我们今天的人工智能 (AI) 已经取得了哪些显著的进展呢? 从AI绘图、AI作曲、AI视频生成、AI写小说、AI主播等等,我们似乎已经见识了许多令人惊叹的应用。 然而,在最近的NeurIPS大会上,来自GrapheneX-UTS的研究人员带来了一项更加引人瞩目的技术——AI读心术BrainGPT! 论文地址

    2024年02月03日
    浏览(40)
  • Google DeepMind发布Imagen 2文字到图像生成模型;微软在 HuggingFace 上发布了 Phi-2 的模型

    🦉 AI新闻 🚀 Google DeepMind发布Imagen 2文字到图像生成模型 摘要 :谷歌的Imagen 2是一种先进的文本到图像技术,可以生成与用户提示紧密对齐的高质量、逼真的图像。它通过使用训练数据的自然分布来生成更逼真的图像,而不是采用预先编程的风格。该技术还改善了图像-标题

    2024年02月04日
    浏览(55)
  • 【AI开源大模型】Falcon 40B——排名第一的AI模型(比 GPT-3 以及 DeepMind 和谷歌的模型更便宜、运行速度更快)

    目录 前言 二、Falcon 40B 介绍 三、Falcon LLM 是如何开发的? 3.1、Falcon 具备什么优势

    2024年02月16日
    浏览(48)
  • 谷歌DeepMind团队深夜发布新AI开源模型Gemma;技术大神Karpathy离职OpenAI后发布教学视频

    🦉 AI新闻 🚀 谷歌DeepMind团队深夜发布新AI开源模型Gemma 摘要 :谷歌DeepMind团队于今日发布了一款名为Gemma的新型AI模型,该模型启发自Gemini,提供两个版本:Gemma 2B和Gemma 7B。这款模型支持Keras 3.0和PyTorch等工具进行微调,可在性能较低的设备上运行,且性能超越竞品Meta Llama

    2024年03月15日
    浏览(56)
  • 傅立叶之美:深入研究傅里叶分析背后的原理和数学

            T傅里叶级数及其伴随的推导是数学 在现实世界 中最 迷人的 应用 之一。我一直主张通过理解数学来理解我们周围的世界。 从使用线性代数设计神经网络,从混沌理论理解 太阳系 ,到弦理论理解 宇宙的基本组成部分 ,数学无处不在。         当然,这些是

    2024年04月12日
    浏览(40)
  • VS2022:卸载,下载安装教程,及可能遇到的问题

    参考链接:https://blog.csdn.net/weixin_69773211/article/details/129246227 下载地址:https://visualstudio.microsoft.com/zh-hans/?rr=https://www.microsoft.com/zh-cn/ 进入页面后,根据需要对版本进行选择,其中社区版为免费版本: 1.下载完之后双击打开下载的文件 2. 进去后出现主界面,仅用来写c++或者C语

    2024年02月08日
    浏览(70)
  • 2022,我们追逐群星,也在追逐AIGC的无尽可能

    2022年,是中国人追逐群星的里程碑之年。 今年10月31日,中国天宫空间站的第二个科学实验模块——梦天实验舱,搭载长征五号B遥四运载火箭发射升空。随着之后天实验舱成功与之前发射的天和核心舱完成精准对接,中国空间站历史性地完成了“合体”。至此,中国空间站距

    2024年02月08日
    浏览(40)
  • 共赴 Google Cloud 2022 中国出海数字峰会,探索更多可能

    后疫情时代,得益于多年构筑的供应链、日趋成熟的数字化技术,中国企业出海发展,有力助推了经济增速“转正”。在国际国内双循环发展格局下,出海赛道未来将会有更多看点与掘金点,赛道内企业如何构建综合竞争力?肩负成本与效率两座大山,出海企业如何巧妙借力

    2024年02月05日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包