机器学习笔记:李宏毅ChatGPT Finetune VS Prompt

这篇具有很好参考价值的文章主要介绍了机器学习笔记:李宏毅ChatGPT Finetune VS Prompt。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 两种大语言模型:GPT VS BERT

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2 对于大语言模型的两种不同期待

2.1 “专才”

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.1.1 成为专才的好处 

Is ChatGPT A Good Translator? A Preliminary Study 2023 Arxiv
机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记
箭头方向指的是从哪个方向往哪个方向翻译
表格里面的数值越大表示翻译的越好
可以发现专门做翻译的工作会比ChatGPT好一些
How Good Are GPT Models at  Machine Translation? A  Comprehensive Evaluation
机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记
同样地,专项翻译任务上,ChatGPT不如一些专门做翻译的模型

 2.1.2 使用方式

对于训练模型进行改造

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 bert的先天劣势就是,他是句子填空,而不是句子接龙,所以希望他进行某一项任务,需要对他进行额外的处理,以及额外的参数微调(finetune)

2.1.2.1 加head

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

额外地对BERT进行一定的添加,使其能够输出希望的结果

 2.1.2.2 微调 Finetune

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2.1.2.3 对训练模型做改造——加入Adapter

在语言模型里插入额外的模组,语言模型的参数不动,只更新adapter的参数
机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记 机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2.1.2.3.1 为什么需要Adapter?

如果没有Adapter的话,100个任务就需要存放100个大模型(的参数)

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 有了Adapter之后,同样的100个任务,我们只需要存一个大模型的参数,和100个任务对应Adapter的参数即可。而一般Adapter的参数量比大模型少多了

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.2 “通才”

 通过人类给模型下的指令(prompt)实现,机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.2.1 成为通才的好处

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2.2.2 In-context Learning

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

给大语言模型一个句子,让他分析句子是正面的还是负面的

我们需要告诉模型我们要进行情感分析。怎么告诉呢?

  • 我们给大模型一些例子,(前面那些句子+情感分析结果)
  • 把那些例子串起来,加上我们想要分析的句子,一股脑喂给大模型,让大模型输出是正面还是负面

 2.2.2.1  大模型真的能从这些例子中学到信息?

2.2.2.1.1 Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? 2022 ARXIV

故意给模型输入一些错误的情感分析标注,看模型的分析结果
机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记
机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记
  •  No demo是没有范例
  • 橙色是给了正确的范例
  • 红色是给了一些错误的范例

——>可以发现正确率并没有下降很多

并没有从范例里学到很多有用的信息? 

那么,故意给一些不在这个domain里面的,无关的输入呢?

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 这种将无关domain的信息加入的结果就是紫色部分,可以看到如果是来自不同的domain的话,效果会下降

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  

所以这篇论文中,in-context learning作用的猜测是:“唤醒”模型

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 换句话说,大语言模型本身就会情感分析,in-context learning的作用是“唤醒”他,让语言模型知道接下来做的任务是情感分析

 这篇论文的另一个例子也佐证了这个观点,我们提供的句子-情感结果对增加,精度涨的不多(如果是finetune的话,精度会提升的很快)

 机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

——>说明并不是靠in-context learning提供的这几个输入来学习情感分析。大语言模型本身就已经具备了情感分析的功能了

 2.2.2.1.2 Larger language models do in-context learning differently 2023 arxiv

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  •  每一个图像中,颜色越深的表示模型越大
  • 横轴表示in-context learning阶段提供给大模型的有多少比例的是错误的信息
  • 可以看到大模型受到错误范例的影响是很大的,而小模型(GPT3,这里的小是相对的小)受到错误范例的影响是不大
    • 上一篇paper考虑的是较小的模型,所以可能会觉得给了错误的范例影响不大
  • 同时我们可以看到,在大模型中,当in-context learning的错误率为100%(全是相反的结果)的时候,大模型的正确率都是低于50%的,说明他们确实从错误的资料中学到了一些知识

与此同时,我们直接让大模型进行分类任务

我们在in-context learning阶段将input和output全部作为输入提供给大模型,让大模型来进行分类任务

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

可以看到大模型确实学到了in-context learning中的信息

2.2.2.2 让模型学习 in-context learning

[2110.15943] MetaICL: Learning to Learn In Context (arxiv.org)

前面的in-context learning都是没有finetune过程了,这里相当于finetune了一下 

 用别的任务的in-context learning的范例、输入、输出进行微调机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2.2.3 instruction tuninging 

大语言模型还是需要进行一定的微调,才能效果比较好,这个微调的过程就是instruction-tuning

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

训练(finetune)的时候, 给模型一些指令和对应的答案。测试的时候,给finetune指令之外的其他指令。让模型自己给出合理的回应。

早期模型如Multitask Prompted Training Enables Zero-Shot Task Generalization就提出了一个T0模型,来达成instruction-tuning的效果

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 [2109.01652] Finetuned Language Models Are Zero-Shot Learners (arxiv.org)

FLAN也是一个早期做instruction tuning的work

首先收集大量的NLP任务和数据集

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

而由于instruction tuning是希望模型理解人类下的指令,所以FLAN每一个NLP的任务想了十种不同的描述方式(template)

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  

  • 当测试任务是natrual language inference的时候,finetune训练的时候就没有这个任务
  • zero shot 是只有指令,没有in-context learning
  • few-shot就是in-context learning
  • FLAN就是进行instruction learning的结果

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2.2.4 Chain of Thought

[2201.11903] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (arxiv.org)

另一种更详细地给机器prompting的方法

  • 如果是数学这种需要推理的问题,直接给 in-context learning 往往效果若不好

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  •  而如果我们给范例的时候,同时给推导过程+答案。期望模型输出答案的时候,也先输出推导,再输出答案
    • 这就叫Chain of Thought Prompting

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  •  从效果上来看,加了CoT之后的效果更好

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

 2.2.5 加一些prompting,让CoT效果更好

[2205.11916] Large Language Models are Zero-Shot Reasoners (arxiv.org)

在进行CoT的时候,范例输完了,需要模型回答的问题说完了,加一行’Let's think step by step',可以获得更好的效果

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

Large Language Models Are Human-Level Prompt Engineers ICLR 2023

加的那一行文字不一样,效果也不一样

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.2.6 CoT+Self=consistency

[2203.11171] Self-Consistency Improves Chain of Thought Reasoning in Language Models (arxiv.org)

 机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

  • 使用CoT让模型先输出推导过程,再输出推导结果,可能每次推导过程不一样 答案也不一样
    • 这里让语言模型产生好几次推导和对应的结果,出现最多次的答案就是正确答案
    • 当然也可以每个答案 用语言模型算一个几率(信心分数)权重
      • 但这个权重论文中说没有什么帮助,所以直接根据数量投票就好

2.2.7 强化学习找Prompt

[2206.03931] Learning to Generate Prompts for Dialogue Generation through Reinforcement Learning (arxiv.org)

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.2.8 直接用LLM来找Prompt

[2211.01910] Large Language Models Are Human-Level Prompt Engineers (arxiv.org)

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.2.9 Few shot prompting

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记

2.2.10 基座模型 & 对话模型

机器学习笔记:李宏毅ChatGPT Finetune VS Prompt,机器学习,chatgpt,机器学习,笔记文章来源地址https://www.toymoban.com/news/detail-634836.html

  • 一般来说,先用大量文本数据训练一个GLM,再用结构化QA(question-answer)数据进行微调

到了这里,关于机器学习笔记:李宏毅ChatGPT Finetune VS Prompt的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 04.Finetune vs. Prompt

    部分截图来自原课程视频《2023李宏毅最新生成式AI教程》,B站自行搜索 GPT:文字接龙 How are __. Bert:文字填空 How __ you. 使用大型语言模型就好比下图: 小老鼠就能驾驭大象。 主要利用模型解决某一个特定的任务,例如翻译 或者是文本摘要: 主要利用模型解决解决各种不同

    2024年02月08日
    浏览(23)
  • 使用 ChatGPT 的 7 个技巧 | Prompt Engineering 学习笔记

    前段时间在 DeepLearning 学了一门大火的 Prompt 的课程,吴恩达本人授课,讲的通俗易懂,感觉受益匪浅,因此在这里总结分享一下我的学习笔记。 为什么要学习 Prompt ? 因为在未来的 AIGC 年代,学习有效的 Promot 提示词有效的利用 AI 来完成一些重复性的工作。这也我认为未来

    2024年02月07日
    浏览(39)
  • prompt-engineering-note(面向开发者的ChatGPT提问工程学习笔记)

    ChatGPT Prompt Engineering Learning Notesfor Developers (面向开发者的ChatGPT提问工程学习笔记) 课程简单介绍了语言模型的工作原理,提供了最佳的提示工程实践,并展示了如何将语言模型 API 应用于各种任务的应用程序中。 此外,课程里面提供了 Jupyter Notebook 代码实例,可以直接使用

    2024年02月12日
    浏览(30)
  • 机器学习李宏毅学习笔记37

    ChatGPT简单原理介绍 Chatgpt以句子为输入,输出这个句子后面接的词汇的概率分布,给每一个可能的符号一个概率,根据这个分布进行sample,每次sample出来的词汇可能都是不一样的,所以答案每次也都不相同。把输出的词汇加在输入给gpt的句子后面,重复上面的过程,直到最后

    2024年02月16日
    浏览(25)
  • 机器学习李宏毅学习笔记33

    神经网络压缩(一) 类神经网络剪枝(pruning) 简化模型,用比较少的参数,但让效能差不多,这就是network compression这件事。有些情况下需要把模型用在resource constrain(资源有限)的情况下,比如说跑在智能手表上、小型无人机上等等。只有比较少的内存和计算能力,这时就

    2024年02月11日
    浏览(74)
  • 机器学习李宏毅学习笔记39

    大模型+大资料 大模型的顿悟时刻 随数据量增加,模型可以从量变达到质变,从某一刻开始突然学会东西。 当成为大模型时,分数会从0,0突然变成100,完成“顿悟”. 横轴表示分布中产生答案的概率(信心分数),纵轴表示答案正确的概率。可以发现小模型的信心分数跟答案

    2024年02月14日
    浏览(60)
  • 李宏毅《机器学习 深度学习》简要笔记(一)

    一、线性回归中的模型选择 上图所示: 五个模型,一个比一个复杂,其中所包含的function就越多,这样就有更大几率找到一个合适的参数集来更好的拟合训练集。所以,随着模型的复杂度提高,train error呈下降趋势。 上图所示: 右上角的表格中分别体现了在train和test中的损

    2024年01月25日
    浏览(30)
  • 【机器学习】《ChatGPT速通手册》笔记

    以下为一些知识点的简单记录,没有逻辑性,大多以分条形式展示。 由于是粗读,且个人水平有限,所以可能有些地方理解的不够准确,仅供参考。如有问题欢迎指正。 类似产品: 包括:文本分类、语言翻译、情感分析、问答系统、对话生成。 1、OpenAI公司没有单独公布过

    2024年04月22日
    浏览(55)
  • 李宏毅机器学习课程笔记(更新ing)

    basic Why deep not fat model? 当需要拟合的pattern复杂度很高时,deep model需要的参数量远低于fat model(指数组合与线性组合)。 另外当pattern复杂且有规律时(语音、图像、NLP),deep model通常表现好于fat model。 CNN 为什么AlphaGo可以用CNN?棋盘抽象成图片时需要注意什么? 首先图片有

    2024年02月10日
    浏览(29)
  • 机器学习笔记:李宏毅 stable diffusion

     ①:文字变成向量  ②:喂入噪声+文字encoder,产生中间产物  ③:decoder 还原图片  这张图越往右下表示效果越好,可以看到text encoder尺寸越大,对后续生成图片的增益越多  现有一个训练好的CNN 模型,可以生成真实影像和生成图像的representation 这两组表征的分布越近,效

    2024年02月13日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包