ChatGPT原理简介

这篇具有很好参考价值的文章主要介绍了ChatGPT原理简介。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

承接上文GPT前2代版本简介

GPT3的基本思想

GPT2没有引起多大轰动,真正改变NLP格局的是第三代版本。

GPT3训练的数据包罗万象,上通天文下知地理,所以它会胡说八道,会说的贼离谱,比如让你穿越到唐代跟李白对诗,不在一个频道上,他说的你理解不了,你说的他理解不了。

GPT3太泛了,把世界上所有的东西都给训练了,不受约束条件的、无法无天,给它发一个指令,它抗拒指令,按照自己的思维模式去做,比如我问一个问题,接下来你用python代码的方式来回答我,它可能不按照这个模式来,不受我的约束。

这就是GPT3,不按照我们自己的思维去做我们自己的事情,也是给后面的ChatGPT做了一个铺垫。

GPT3 三种模式对比

  • Zero-shot

ChatGPT原理简介

不管我输入什么,后面都会加上提示,比如把英文转换成法语,接下来就输出了法语。

  • One-shot

ChatGPT原理简介

为了让它更好的理解我说的意思,我给它举了一个例子。

举一个例子,这个例子作为输入,我让你干什么,我给你举一个例子,你回答的时候可以参考这个例子。

这些例子都是我写到输入对话框中,一起给到模型,模型基于我写的例子,再往下输出。

  • Few-shot

ChatGPT原理简介

Few-shot是举多个例子。

这就是GPT3的基本思想。

Few-shot像在下游任务中又做了个简单的训练,比如举了三个例子,即三条数据,相当于把下游任务融入到了这个任务当中。

GPT3本质上还是一个生成式模型,它不需要下游任务,下游任务可以放到Few-shot或放到One-shot中。

ChatGPT原理简介

横轴表示语言模型的大小, One-shot和Few-shot之间还是存在差异的,尤其是模型越大的时候,差异越明显,Few-shot效果更好一些。

ChatGPT原理简介

GPT3网络结构没有什么亮眼的,就是把Transformer做的更大了。

NLP哪家强,就看谁的模型更大,谁的数据更多。

OpenAI训练的GPT-3 1750亿个权重参数,每批次的训练数据大小是3.2M,这么大的量级,目前只有OpenAI大型GPU集群才能玩的转。

准备训练数据

准备数据不难,但数据又多又干净才不容易准备。

OpenAI对收集到的数据有质量的判断,对于网页的爬取会设计一些算法去评估哪些网页要求比较低或可信度比较低的,它会把这些网页过滤掉,只爬一些有价值的网页。

GPT三代算法告诉我们一件事,这种生成式语言模型能解决一切的事情,即以不变应万变。以后的趋势是GPT这个系列一家独大,可能再过10年NLP的其他分支就不存在了,因为一个通用大模型可以解决所有的事情,干嘛还要每个NLP分支做自己的东西呢。

CODEX

程序猿一般都是面向百度、Google编程,而GPT面向github编程。

使用GPT-3模型,训练数据是所有的github数据,进行重新训练(注意不是微调)。

github和OpenAI都是微软的,所以CODEX拿到github的数据很容易,然后进行清洗和训练。

10年之内不用考虑程序猿能否被替代,因为ChatGPT以及现在的GPT还不能解决特别多的实际任务。

举例说明什么是有监督学习?

小时候家里没钱买电脑,就经常上网吧,我爸就教育我不要去网吧,我特别理解我爸,我还没嫌他穷呢他还嫌我上网吧。我爸教育我,你这么做是不对的,我爸给了明确的标签,有了标准答案,我下次去网吧的时候,就会想一想是我不对,不是我爸不对,那这次我就不去网吧了,这是一个有监督学习。

人工的给了一些标注,在预训练模型基础之上继续去学一学正确的说话逻辑,学一学怎样正确的回答问题。

ChatGPT提出的第一件事情就是不能再用无监督去做了,无监督不确定的东西太多了,它生出来的东西是好是坏都不好说,所以要限制它,它的语言能力已经非常强了,我们现在要让它继续去完成我们的任务,学我们说的话,办我们说的事,所以ChatGPT是有监督训练。

模型越大、参数越大并不是越好,文本模型越大,参数越多,结果越专一,越专一的结果可能并不是想要的,比如随便问一句话,永远回复的一样。

训练模型,希望模型学人类说话的逻辑,说人话办人事,让机器更像人,更符合人的逻辑的给你解释这些东西,而不是像原来的GPT3只是纯生成的模型,那下一步应该怎么办?

大家在问ChatGPT问题的时候,后面加一个提示,这些提示是经常问的问题,这些问题由人工标注,人工来回答。有了输入和输出,接下来训练GPT3.5模型,继续在它无监督的基础上再去做这个有监督任务,有监督学习就是我们希望它输出啥,就用这样的数据去训练它。

ChatGPT原理简介

无监督学习任务中不可能有一个学习的过程,而有监督首先要解决的就是敏感话题,比如跳楼是一个不好的,得告诉你不要去跳楼。

  • 第一个要标注答案,不要是有“毒”的东西

  • 第二个应该是跟我们聊天近似的,要一些有感情的东西,而不是像专家一样教育我

这得需要有监督去做,通过有监督解决无监督解决不了的事情,要说人话、办人事。

强化学习

先来玩个游戏,来了解下什么是强化学习,

ChatGPT原理简介

右边有一个飞船,想降落在2个旗子当中,某一时刻的飞船可以往左走,也可以往右走,那飞船应该往哪边走?

上图中的飞船想要落到两个棋子中间需要往左走,飞船往左走的时候给它一个奖励,表示走对了,如果往右走了,奖励就很低,表示走错了。

ChatGPT原理简介

飞船降落的过程,不要把它想象成一个连续的,当它是离散的,比如它是由1000个step组成,每一个step都有当前的一个状态 当前位置以及action(action表示接下来往那边走)这些属性。

我们所关注的东西,并不是一个片面的,即并不是每一步走的怎么样,而是要看最终的一个累加的结果。

ChatGPT原理简介

这是目标函数,希望全局奖励越高越好。

不关注每一步怎么样,而是看全局,飞船完成一个完整的过程之后总的奖励,这就是强化学习基本的思想。

有这样一个序列,{s1,a1,s2,a2,....,st,at},表示飞船在每一个step的状态和action,

类似于见人(s1)说人话(a1),见鬼(s2)说鬼话(a2)。

那每一步如何走才能得到更多的奖励呢,这就需要训练神经网络了。

ChatGPT原理简介

把a1输入到神经网络中,不需要知道a1是人还是鬼,神经网络输出这个状态下的预测结果是什么。

或者把这个图片作为输入到神经网络中,

ChatGPT原理简介

神经网络会告诉飞船往左走。

状态和动作可以跟神经网络联系在一起,动作做的对做的准奖励才高。

为了让奖励做的高,神经网络的权重参数要不断更新。

通过奖励最高这种机制来训练神经网络,让神经网络知道输入一个状态,怎么样输出一个好的答案。

在ChatGPT中,状态是你输入的一句话,action是输出的一句话。

象棋、围棋等游戏也都可以设置奖励,阿法尔狗大战李世石就是用强化学习来做的。

用强化学习,得需要有什么?

得有一个奖励,得知道这一步到底做的对不对,做的不对的话,再改正,所以需要单独训练一个可以预测奖励的模型。

输入一句话到奖励模型,输出一个reward(奖励值)。

为什么ChatGPT没有用纯的监督学习来训练?不用强化学习行不行?

  • 什么是监督学习

比如我上网吧,我爸给我一顿揍,这是监督学习,我爸告诉我,我干这件事情是错的。

我爸揍我的强弱程度决定了这件事我是错的多还是错的少,这是监督学习,直接告诉你这件事情是对的还是错的。

  • 什么是强化学习?

我去网吧了,我爸回家哭了,我没哭,我寻思我爸咋哭了,是不是我哪做的不对?是不是以后不上网吧就行了呢? 强化学习并不是哪件事情是对还是错,而是告诉你,你做的这个东西,可能是好的,可能也是不好的,但没有告诉你有多不好或有多坏,你接下来怎么去更新并不是一个固定的机制,需要我去思考的,不是固定的。

再比如导师给你安排了一个项目,但没有说具体该怎么做。

导师说:你态度不端正,思考问题的方式不行。

说你不对,但没有告诉你哪块不对,也没有告诉你这个项目第一步怎么做,第二步怎么做,不会告诉你具体的每一件事。

如果导师告诉你就是有监督学习,你输入一个东西,我告诉你答案,但是没有锻炼到你。

你回到家去思考,想到一个解决方式,就先这么改进吧,改进完之后,给导师看,导师又给一顿骂,在反复找导师的过程中会思考一个问题,怎么做更迎合导师的思维。

强化学习并不是一个固定的输入输出模式,怎么做能让输出的东西更符合想要的答案,强化学习不是给你的一个答案,而给的是导师的满意程度。

ChatGPT原理简介

需要额外再训练一个奖励模型,第一步少不了人工标注。

比如随便问一个问题“你瞅啥?”,产生四种答案:瞅你咋滴、没瞅啥、我就随便看看、你说啥。

导师对4个答案打分,对于每一个输出都要人工打分,人工打分之后,再做一个排序操作。

人工打分需要知道什么样的打分高,什么样的打分低。

怎么训练奖励模型,输入一句话,输出一个分值?

正常的语言模型要输出接下来预测的每一个词的概率,比如一共有3万个词,每个词的概率是多少。 奖励模型不是这样了,它把最后的输出层改了,去预测一个得分值。

奖励模型还是基于Transformer去做的,只是以前是一个分类任务,3万个词,预测每个词的得分,现在变成了预测一个得分值。

ChatGPT原理简介

通过这个损失函数去猜怎么训练的,这个奖励模型是一个小的6亿参数的GPT。

x是“你瞅啥”,

Yw是得分最高的那一个,

Yl是得分较低的那一个,

w是“瞅你咋滴”,

l是“我就随便看看”。

得分最高和最低两者差异越大越好,

ChatGPT原理简介

sigmod函数,差异越大,得到的结果越接近1。 得分高的和得分低的没啥差异的化,可能就接近0,效果就越差。

传入log对数函数中,越接近1的,损失越小,越接近0的 ,损失越大。

标注分高的和标注分低的,起码在奖励得分上要高出一个等级,越高越好。 输入和输出是由人工标注的。

比如k=4,表示4句话,比如选“瞅你咋滴”和"随便看看"以及"没瞅啥","你说啥",从中选择2个, 所有的输出结果都是由人工标注的,在所有标注中任选其中的2个,k个里面选2个来计算,损失越低越好。

奖励模型怎么去做,首先人工标注,想要的,得分高点;不想要的,得分低点。

奖励模型并不需要特别大的模型,若是1750亿权重参数的模型,验证集准确率很低,效果一般,小版本6亿参数的模型却恰恰好。

继续训练这个模型得到一个初始化模型,最后的一个圈层 当中正常是要做一个多分类,现在把多分类用FC预测一个得分值。

往ChatGPT模型中输入“你瞅啥”,输出“没瞅啥”,

输出的东西要往奖励模型中传入,奖励模型会帮你输出一个分数,分数低的话,要更新ChatGPT模型的权重参数。

通过强化学习的方式就可以无限制的更新我们的模型了, 奖励模型会判断你输入给我的东西是不是我想要的,是我想要的,分高一点,不是我想要的,分低一点, 根据分的高低更新ChatGPT。

比如经过了一个epoch(一个epoch等于使用训练集中的全部样本训练一次的过程)之后,ChatGPT更新了一次,奖励模型也要进行更新,交替训练,交替更新,这就是强化学习当中的基本思想。

ChatGPT和奖励模型都是在原始的GPT中衍生过来的。

我们需要的模型就是通过RL来更新的,模型输出的句子通过奖励模型得到得分,再反馈,而且模型更新一阵后,也需要再更新奖励模型。

目标函数

ChatGPT原理简介

这是目标函数,首先要更新的是ChatGPT模型,这是最核心的,模型在更新的过程中,希望x传入这个模型之后得到的奖励越高越好,对应着第一项越大越好,

ChatGPT原理简介

第一项后面是一个减号, 对于目标函数来说,希望减去的第二项越小越好。

贝塔系数(β)是一个权重, SFT表示有监督渲染出来的模型,把x输入之后,有监督模型会帮我们生成一个结果,强化学习ChatGPT也会生成一个结果,强化学习跟有监督之间的一个pk,两者做了一个除法,输出是一个句子,可以把输出一个句子叫输出一个分布或者输出它的概率分布,这时强化学习认为输入这个句子每个词的概率分布合在一起。

右边是有监督模型,它输出的句子每个词的概率分布合在一起。

计算两个分布之间的差异。

ChatGPT原理简介

前面是一个对数,对数当中只有为1的时候最小。

除法2/2=1、3/3为1,两者旗鼓相当。

强化学习思维会比较发散,那怎么做才能得分高?可能会尝试很多东西。

类比怎么让导师满意我?我给他转100万和用监督模型学习,结果导师可能都高兴, 但现在越学越离谱了,因为强化学习不太可控,强化学习说你把导师揍一顿,他下次就不敢说你了,会和人工标注的(有监督)差异非常大。

强化学习要探索,我不知道正确答案,但我不按套路出牌,我可以任意去发挥,它很容易发散,比如我从9楼跳下去,它说你从天台跳,9楼可能摔不死。

需要降低强化学习和有监督的差异,强化学习太离谱了,别让它那么离谱,减去这个差异,要以人为主,跟有监督模型(人工标注的)做对比,你要去学怎么样接近人类的思维。

ChatGPT原理简介

这个是泛化能力,之前是没有的,额外做了拓展,即做了一个对比实验。

模型能生成你的对话,但模型不仅仅生成对话。

类比你的体育天赋特别好,一般跑步跳远很棒的人,踢足球也是很好的。

加了一些下游任务,在不同的下游任务里面也要预测的好,比如情感分析、机器翻译、文本摘要,在这些例子中也会做的不错,所以叫它泛化能力。

就在当前这个前提上,可能人家又加了一些业务场景,在其他业务场景中也要做的好,这就是一个多目标损失函数 ,而不仅是一项做的好。

强化学习要以人为主,尽可能跟有监督是类似的,最后再结合一个泛化能力,应用到不同的拓展任务当中,效果也要好才行。

ChatGPT原理简介

上面所将的ChatGPT思想出自2020年的一篇论文。

它是做文本摘要的,怎么把文本摘要做的好?

第一步:

人工的去收集一些数据,这个文本应该有哪些摘要。

在语言模型当中再加上下游任务。

第二步:

训练一个奖励模型,奖励模型希望得分高的和得分低的差异越大越好,要让模型知道这样一个事。

再用PPO损失函数去渲染整个模型。

OpenAI做了个分析

ChatGPT原理简介

GPT、给GPT加了提示、有监督模型、PPO(强化学习思想)、ptx(泛化能力)这几个模型的对比效果图。

第一个比较维度,问ChatGPT能不能争取有效的回答。

第二个维度,有没有满足限制条件,比如请你用一个女生的口吻来和我说话。

第三个维度,模型输出的有没有太离谱的,为什么解释以人本,其实就是以这个图思考的,

第四个维度,能不能帮我们解决常见的事情,比如充当一个助手。文章来源地址https://www.toymoban.com/news/detail-453587.html

到了这里,关于ChatGPT原理简介的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • CDH简介及CDH部署、原理和使用介绍( 版本6.3.1 )

    CDH概念 ​ CDH是Cloudera的100%开源平台发行版,包括Apache Hadoop,专为满足企业需求而构建。CDH提供开箱即用的企业使用所需的一切。通过将Hadoop与十几个其他关键的开源项目集成,Cloudera创建了一个功能先进的系统,可帮助您执行端到端的大数据工作流程。 简单来说:CDH 是一

    2023年04月09日
    浏览(42)
  • ChatGPT系列学习(1)transformer基本原理讲解

    现在ChatGPT可以说是AI界的当红炸子鸡,甚至都不局限于AI界了,各行各业都受到了ChatGPT的追捧和冲击,而ChatGPT背后的算法就是transformer。想要更好的使用和了解ChatGPT,那么我们首先应该对它背后的底层方法进行学习和复现。到这里便引出了我们今天要学习的结构:transformer。

    2024年02月05日
    浏览(35)
  • 我与ChatGPT共同学习电路的日子:Spectre DC仿真的基本原理

    本文摘录作者与ChatGPT部分对话,对话目的主要是通过ChatGPT了解电路仿真器执行各项仿真任务的原理。本文ChatGPT回答均未进行校对与更改,请谨慎参考。 Human: Assistant: 模拟集成电路设计 (Analog Integrated Circuit Design) 是一种基于模拟信号的电路设计,通常涉及到各种传感器、放大

    2023年04月16日
    浏览(39)
  • Git的原理与使用(一):Git的基本操作(包含:版本回退)

    Git是一个版本控制器 在这里我们重点介绍Linux操作系统下的Git的使用 因为在未来的开发过程中Linux操作系统的使用更为频繁 而且Git最初就是在Linux操作系统下面开发的 1.git命令与git help(Git下的\\\"man手册\\\") 首先我们可以使用git命令来查看我们有没有安装Git 如果结果是这样的 说明

    2024年02月05日
    浏览(36)
  • 使用动态变量名承接实参

    import json json_data = json.loads(prev.getResponseDataAsString()) # Extract the currentAccountList from the JSON data currentAccountList = json_data.get(\\\"data\\\", {}).get(\\\"currentAccountList\\\", []) disbursementAccounts = json_data.get(\\\"data\\\", {}).get(\\\"disbursementAccounts\\\", []) # Initialize an empty list to store account IDs where currency is KES KES_B002_acco

    2024年01月22日
    浏览(43)
  • 面试题更新之-什么是响应式设计?响应式设计的基本原理是什么?如何兼容低版本的IE?css实现响应式设计的方案

    响应式设计(Responsive Design)是一种网页设计和开发的方法,旨在使网站能够在不同设备、屏幕尺寸和窗口大小下提供最佳的用户体验。 传统的网页设计通常针对特定的屏幕尺寸进行布局和样式定义,这导致在不同设备上浏览同一个网站时会出现排版错乱、内容溢出或者字体

    2024年02月16日
    浏览(66)
  • 接上文AI电销机器人-智能AI机器人源码,电话机器人源码和系统部署运行环境freeswitch

    21)话术的启用 功能说明: 通过此接口实现对话术的启用。 更新说明: -- 请求: URL:http://{ ip }/ai/ai2words/start 请求方法:POST 请求头:必须带上登录时返回的Token Auth: {登录时返回的Token} 参数名 类型 是否必须 描述 实例 wordsId Integer 是 话术的编号 20 响应: 参数名 类型 描述

    2024年02月04日
    浏览(57)
  • IIS部署vue前端过程(含IIS及相关配置和安装),部署遇到的问题及报错(承接vueconfig.js全局配置环境变量,跨域问题)

    目录 一.IIS使用安装。 二.部署准备工作 三.部署前端(以vue为主) 四.问题与报错 1.HTTP 错误 404.0 - Not Found(需重写路由入口) 2.请求调用不了(需要重写请求地址) 3.地址显示undefined 第一步,打开“ 控制面板 ”,点击“ 网络和Internet ”。 第二步,点击左侧“ 程序 ”,然后点击

    2024年02月08日
    浏览(66)
  • 机器学习基本概念简介

    一、机器学习是在干什么? 以中学时代所学的函数为例,做应用题时我们都会建立相应的正比例函数、二次函数等来解决,给定一个自变量x都能得到唯一的因变量y。现在我想找到一个函数ƒ,它的输入并不是数字,而是一段语音,最后相应的文字,亦或输入的是一副图片,

    2024年04月15日
    浏览(39)
  • Flume 简介及基本使用

    Apache Flume 是一个分布式,高可用的数据收集系统。它可以从不同的数据源收集数据,经过聚合后发送到存储系统中,通常用于日志数据的收集。Flume 分为 NG 和 OG (1.0 之前) 两个版本,NG 在 OG 的基础上进行了完全的重构,是目前使用最为广泛的版本。下面的介绍均以

    2024年02月07日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包