【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)

这篇具有很好参考价值的文章主要介绍了【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

来源:【授权】李宏毅2023春机器学习课程
ChatGPT太火热了,借此简单了解一下


ChatGPT的newbie之处在哪里?
同一个问题,它的每次回答都不同;处于同一个chat中,我可以追问多个问题,因为它知道上下文。

对于ChatGPT的误解

误解1: ChatGPT的回应是罐头回应。(ie. 比如我让ChatGPT给我讲个笑话,罐头回应就是程序员让ChatGPT事先准备好了一些笑话,ChatGPT从中随机抽一个来回答我)
解释: 不是罐头回应哦,下文会解释。

误解2: ChatGPT的回答是Google一下的结果。
解释: ChatGPT不联网。它是用2021年前的网络数据训练的,所以问它2021年后的问题它会回答“无法预测”。

对于ChatGPT的正解

ChatGPT的工作原理实质是:文字接龙
作为一个函数function,它的 input 是历史对话信息+我们输入的问题(eg. 历史对话信息+"什么是机器学习?")。
它的 output 是跟在 input 之后的可能紧跟着的词汇出现概率分布(eg. 机50%、是30%、我10%、所20%),然后ChatGPT选那个概率最大的(eg. 输入变成了 历史对话信息+"什么是机器学习?机")。至于候选的词汇,是sample出来的(所以每次它的回答都不一样)。那么何时结束呢?当候选词中“end符”的概率最大时。
【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)

李宏毅老师猜测ChatGPT这个模型拥有1700亿以上的参数。

ChatGPT的关键技术

pre-training预训练(或者叫 self-supervised model自监督模型 / foundation model基石模型)
从名字就可以体现—— ChatG(generative) P(pre-training) T(transformer)
预训练技术的出现动机:人类能给出的带标签的训练数据是非常有限的,是成本很高的。
ChatGPT所需的对话数据,如果人工给出则非常耗时,但是其实网络上的每一段文字都能够作为文字接龙的训练数据。eg. [世界第一高峰是(input)] [喜马拉雅山(output)]。如果我们能让机器自己学习这些数据,就可以大大提高效率。
【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)

ChatGPT的历史

一代GPT-2018年。二代GPT-2019年。三代GPT-2020年(数据量已经到达了570GB)。ChatGPT是在三代GPT(GPT3)的基础上,补充了一些人为标注的数据集,然后训练的。

ChatGPT的结构

【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)
GPT是纯靠预训练而成的基石模型。在GPT的基础上,加上监督学习(ie. 带标签数据)和增强学习(ie. 告诉机器它的输出是√还是×),训练成了ChatGPT(这一过程叫做微调)。

ChatGPT的有趣

网络上有许多调教ChatGPT的教程。
ChatGPT还可以结合midjourney,生成剧情游戏(视频里演示了一个,有一点点点无聊)。
【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)文章来源地址https://www.toymoban.com/news/detail-415912.html

ChatGPT带来的研究问题

  1. 如何精确提出需求,让ChatGPT精准回答?——使用催眠prompting
  2. 如何更正ChatGPT的错误/更新2021年之后的信息?——Neural editing
  3. 如何侦测AI生成的物件?
  4. ChatGPT不小心泄露秘密怎么办?——machine unlearning

到了这里,关于【笔记】ChatGPT是怎样炼成的(李宏毅2023机器学习课程引入部分)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略

    “各个击破”——一个一个生成出来 一步到位,全部生成出来  两种策略 策略1:始终生成固定长度(比如100),如果出现end,那么end后面的部分直接扔掉 策略2:首先输出一个数字n,表示之后我们要输出多长,然后输出n长度的句子    一般文字相关的任务考虑“各个击破”

    2024年02月13日
    浏览(40)
  • 算法是如何炼成的?

    算法可以追溯到古代埃及人和古希腊人使用的算术方法。在古代埃及,人们使用简单的加减法来解决基本的数学问题,而在古希腊,人们开始使用更加复杂的算术方法,比如平方、立方、平方根和立方根。 随着数学的发展,算法也在不断演进。在中世纪,欧拉和斐波那契发明

    2024年02月09日
    浏览(41)
  • 机器学习李宏毅学习笔记37

    ChatGPT简单原理介绍 Chatgpt以句子为输入,输出这个句子后面接的词汇的概率分布,给每一个可能的符号一个概率,根据这个分布进行sample,每次sample出来的词汇可能都是不一样的,所以答案每次也都不相同。把输出的词汇加在输入给gpt的句子后面,重复上面的过程,直到最后

    2024年02月16日
    浏览(37)
  • 机器学习李宏毅学习笔记39

    大模型+大资料 大模型的顿悟时刻 随数据量增加,模型可以从量变达到质变,从某一刻开始突然学会东西。 当成为大模型时,分数会从0,0突然变成100,完成“顿悟”. 横轴表示分布中产生答案的概率(信心分数),纵轴表示答案正确的概率。可以发现小模型的信心分数跟答案

    2024年02月14日
    浏览(72)
  • 机器学习李宏毅学习笔记33

    神经网络压缩(一) 类神经网络剪枝(pruning) 简化模型,用比较少的参数,但让效能差不多,这就是network compression这件事。有些情况下需要把模型用在resource constrain(资源有限)的情况下,比如说跑在智能手表上、小型无人机上等等。只有比较少的内存和计算能力,这时就

    2024年02月11日
    浏览(85)
  • 2023李宏毅机器学习HW05样例代码中文注释版

    这里只是 2023 李宏毅机器学习 HW05 样例代码的中文注释版的分享,下面的内容绝大部分是样例代码,补充了小部分函数的功能解释,没有做函数功能上的修改,是 Simple baseline 版本。 notebook 代码下载: [EN] [ZH] 进阶阅读:李宏毅2023机器学习作业HW05解析和代码分享 英译中(繁体

    2024年02月05日
    浏览(84)
  • 李宏毅《机器学习 深度学习》简要笔记(一)

    一、线性回归中的模型选择 上图所示: 五个模型,一个比一个复杂,其中所包含的function就越多,这样就有更大几率找到一个合适的参数集来更好的拟合训练集。所以,随着模型的复杂度提高,train error呈下降趋势。 上图所示: 右上角的表格中分别体现了在train和test中的损

    2024年01月25日
    浏览(42)
  • 李宏毅机器学习课程笔记(更新ing)

    basic Why deep not fat model? 当需要拟合的pattern复杂度很高时,deep model需要的参数量远低于fat model(指数组合与线性组合)。 另外当pattern复杂且有规律时(语音、图像、NLP),deep model通常表现好于fat model。 CNN 为什么AlphaGo可以用CNN?棋盘抽象成图片时需要注意什么? 首先图片有

    2024年02月10日
    浏览(39)
  • 机器学习笔记:李宏毅 stable diffusion

     ①:文字变成向量  ②:喂入噪声+文字encoder,产生中间产物  ③:decoder 还原图片  这张图越往右下表示效果越好,可以看到text encoder尺寸越大,对后续生成图片的增益越多  现有一个训练好的CNN 模型,可以生成真实影像和生成图像的representation 这两组表征的分布越近,效

    2024年02月13日
    浏览(51)
  • 李宏毅机器学习笔记:结构学习,HMM,CRF

    什么是Seq2Seq问题呢?简单来说,就是输入是一个序列,输出也是一个序列。输入和输出的序列可以相等,也可以不相等。在本文中,可以先假设输入输出序列相等。 这里用了一个通俗易懂的例子来解释HMM模型,POS tagging,词性标注。 PN表示专有名词Proper Noun V表示动词 D 定冠

    2024年02月11日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包