Prompt Tuning训练过程

这篇具有很好参考价值的文章主要介绍了Prompt Tuning训练过程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

0. 入门

0.1. NLP发展的四个阶段:


Prompt工程如此强大,我们还需要模型训练吗? - 知乎

Prompt learning系列之prompt engineering(二) 离散型prompt自动构建

Prompt learning系列之训练策略篇 - 知乎

ptuning v2 的 chatglm垂直领域训练记录_路人与大师的博客-云服务器哪家好

Pretrain + Fine-tuning(Model Tuning):

对于不同的任务,都重新 fine-tune 一个新的模型,且不能共用。但是对于一个预训练的大语言模型来说,这就仿佛好像是对于每个任务都进行了定制化,十分不高效。

Prompt Tuning:

对于不同的任务,仅需要插入不同的prompt 参数,每个任务都单独训练Prompt 参数,不训练预训练语言模型,这样子可以大大 缩短训练时间,也极大的提升了模型的使用率。

0. 入门

0.1. NLP发展的四个阶段:

1st阶段 feature engineering

需要相关研究人员或者专业人士利用自己扎实的领域知识从原始数据中定义并提取有用的特征供模型学习。依赖于大量的人工

2nd阶段architecture engineering

如何设计一个合理的网络结果去学习有用的特征,从而减少对人工构建特征的依赖。

3rd阶段objective engineering

Pre-train, Fine-tune,更注重于目标的设计,合理设计预训练跟微调阶段的目标函数,对最终的效果影响深远。前面两个阶段都依赖于有监督学习,但是这个阶段里的预训练可以不需要有监督的数据,极大的降低了对监督语料的依赖。

4th阶段prompt engineering

在特定下游任务下可以通过引入合适的模版(prompt)去重构下游任务,管控模型的行为,实现zero shot或者few shot。一个合适的模版甚至可以让模型摆脱对下游特定任务数据的要求,所以如何构建一个合理有效的prompt成为了重中之重。

  1. 什么是Prompt

Prompt就是提示词的意思,一种为了更好的使用预训练语言模型的知识,采用在输入段添加额外的文本的技术。

  • 目的:更好挖掘预训练语言模型的能力
  • 手段:在输入端添加文本,即重新定义任务(task reformulation)

在NLP中Prompt代表是什么呢?

  • prompt 就是给 预训练语言模型 的一个线索/提示,帮助它可以更好的理解 人类的问题。

例如,下图的BERT/BART/ERNIE 均为预训练语言模型,对于人类提出的问题,以及线索,预训练语言模型可以给出正确的答案。

  • 根据提示,BERT能回答,JDK 是 Oracle 研发的
  • 根据 TL;DR: 的提示,BART知道人类想要问的是文章的摘要
  • 根据提示,ERNIE 知道人类想要问鸟类的能力–飞行

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

  1. Prompt工作流

Prompt工作流包含一下4部分:

  • Prompt模版 (Template)的构造
  • Prompt答案空间映射(Verbalizer)的构造
  • 文本代入 Template,并且使用晕训练语言模型进行训练
  • 将预测结果映射回label

step1:prompt construction【Template】

首先,我们构造一个模版,模版的作用是将输入和输出进行重新构造,变成一个新的带有mask slots的文本,

  • 定义一个模版,包含2出带填入的slots:【x】和【z】
  • 将【x】用输入文本代入

例如:

输入:x = 我喜欢这个电影。

模版:【x】总而言之,它是一个【z】电影

代入(prompting):我喜欢这个电影。总而言之,它是一个【z】电影

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

step2:answer construction【verbalizer】

对于构造的prompt,需要知道预测词和label之间的关系,并且z不是任意词,需要一个mapping function将输出词与label进行映射。

例如:

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

step3:answer prediction【Prediction】

选择合适的预训练模型,进行mask slots 【z】的预测。

例如:

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

step4:answer-label mapping【mapping】

得到的answer,需要使用verbalizer将其映射回原本的label

例如:fantastic 映射回label

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

总结:

Terminology

Notion

Example

Input

x

I love this movie

Output(label)

y

Prompt Tuning训练过程,NLP,prompt,深度学习,人工智能

Template

-

【x】overall,it was a 【z】movie

Prompt

x'

I love this movie. overall,it was a 【z】movie

Answer

z

fantastic, boring

  1. Prompt-based Training Strategies (训练策略选择)

Prompt-based模型子啊训练中,有多重训练策略,可以选择那些模型部分训练,哪些不训练。

根据训练数据的多少分为:

Zero-shot

对于下游任务,没有任何训练数据

Few-shot

对于下游任务,只有很少的训练数据,例如:100条

Full-shot

有很多训练数据,例如1W多条数据

  1. Prompt Mining

人工构建Prompt的方式有两个弊端,人工构建Prompt和测试Prompt效果耗费时间跟精力,另一方面专业人士也不一定能通过人工的方式构建最优的prompt。为了解决这个问题,自然而然就衍生自动构建prompt的方式,自动构建prompt分为离散型的prompt(prompt可以用具体的字符表示)和 连续型的prompt(prompt由向量替代)文章来源地址https://www.toymoban.com/news/detail-701200.html

到了这里,关于Prompt Tuning训练过程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Robert+Prompt+对比学习+对抗训练文本分类

    基于Robert的文本分类任务,在此基础上考虑融合对比学习、Prompt和对抗训练来提升模型的文本分类能力,我本地有SST-2数据集的train.txt、dev.txt两个文件,每个文件包含文本内容和标签两列,是个二分类任务,本项目基于pytorch实现。 先介绍一下要融合的三个技术。 1. 对比学习

    2024年02月09日
    浏览(22)
  • 【LLM】Prompt tuning大模型微调实战

    prompt tuning可看做是prefix tuning的简化版本,在输入层加入prompt tokens,并不需要加入MLP进行调整来解决难训练的问题,作者实验表明随着预训练模型参数量的增加,prompt tuning效果逼近fine tuning效果 之前提到过可以借助 peft 库(Parameter-Efficient Fine-Tuning)进行微调,支持如下tuni

    2024年02月13日
    浏览(36)
  • 大模型PEFT技术原理(一):BitFit、Prefix Tuning、Prompt Tuning

           随着预训练模型的参数越来越大,尤其是175B参数大小的GPT3发布以来,让很多中小公司和个人研究员对于大模型的 全量微调 望而却步,近年来研究者们提出了各种各样的参数高效迁移学习方法(Parameter-efficient Transfer Learning),即固定住Pretrain Language model(PLM)的大部

    2024年01月25日
    浏览(54)
  • 大语言模型LLM微调技术:Prompt Tuning

    截止23年3月底,语言模型发展走过了三个阶段: 第一阶段 :设计一系列的自监督训练目标(MLM、NSP等),设计新颖的模型架构(Transformer),遵循Pre-training和Fine-tuning范式。典型代表是BERT、GPT、XLNet等; 第二阶段 :逐步扩大模型参数和训练语料规模,探索不同类型的架构。

    2024年02月03日
    浏览(31)
  • ChatGpt提问艺术 prompt工程学习过程

    Prompt 公式是提示的特定格式,通常由三要素组成 任务:对提示要求模型生成的内容进行清晰而简介的陈述。 指令:在生成文本时模型应当遵循的指令 角色:模型在生成文本时应扮演的角色。 提示公式:“按照以下指示生成[任务]:[指令]” 示例: 生成客户服务响应: 任务:

    2024年02月09日
    浏览(34)
  • Multitask Vision-Language Prompt Tuning

    本文是LLM系列文章,针对《Multitask Vision-Language Prompt Tuning》的翻译。 提示调整以任务特定的学习提示向量为条件,已成为一种数据高效和参数高效的方法,用于将大型预训练视觉语言模型适应多个下游任务。然而,现有的方法通常考虑从头开始独立地为每个任务学习提示向量

    2024年02月10日
    浏览(26)
  • 大模型参数高效微调技术原理综述(二)-BitFit、Prefix Tuning、Prompt Tuning

    随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。 因此,该技术值得我们进行深入分析其背后的机理,本系列大

    2024年02月09日
    浏览(38)
  • 一分钟搞懂 微调(fine-tuning)和prompt

    大家都是希望让预训练语言模型和下游任务靠的更近,只是实现的方式不一样。Fine-tuning中:是预训练语言模型“迁就“各种下游任务;Prompting中,是各种下游任务“迁就“预训练语言模型。 微调(fine-tuning)和prompt是自然语言处理领域中常用的两个术语,它们都是指训练和

    2023年04月26日
    浏览(38)
  • 飞浆AI studio人工智能课程学习(1)-大模型时代&优质Prompt

    学习记录 源自:百度飞浆-基于大模型的优质Prompt开发课 原始视频地址 原始视频:地址 朵云轩x文心一格的110万拍卖画作 创作者在一些提示词平台上进行售/Prompt Base -使用提示词能让想象力得到发挥 -发掘提示词可以产生收益 开始构建你的优质prompt 大规模预训练语言模型LL

    2024年02月10日
    浏览(44)
  • LLM微调 | Prefix-Tuning, Prompt-Tuning, P-tuning, P-tuning-v2

    🔥 下面我只是分析讲解下这些方法的原理以及具体代码是怎么实现的,不对效果进行评价,毕竟不同任务不同数据集效果差别还是挺大的。 hard prompt (离散):即人类写的自然语言式的prompt。 soft prompt (连续):可训练的权重,可以理解为伪prompt。【毕竟nn是连续的模型,在连续

    2024年02月14日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包