一、商业观点:企业借助大模型获得业务增长可能
二、底层原理:transformer
1)备注
①下面每个步骤都是自回归的过程(aotu-regressive):已输出内容的每个字作为输入,一起生成下一个字
②合起来就是:y1输出之后,y1和x序列一起作为输出,来生成y2;y1和y2加x序列作为输入,来输出y3
③GPT3.5有1750亿参数,也就是1750亿维
2)运行步骤
①把一串输入的字符串拆分成x序列的结构
②再把这串x序列的输入字符串映射成z序列
(z序列是:z1、z2、z3、z4等,不一定必须是512维),每个z是512维坐标的向量,由512个坐标构成
③解码器
根据传入的z序列生成y序列
3)编码器框架图
①左边是编码器,右边是解码器
②输入有两个预处理
1)input Embedding
:把每个字都变成512个字去描述
2)positionnal Encoding
:不仅要把每个字换成512个描述,而是还要关注每个字的位置(也就是关注词的主谓宾)
③linear
做类似线性回归的东西
④softmax
:把前序所有的计算结果转化成概率数字,有了概率数字才会知道蹦出来的下个数字是什么
⑤注意力机制(attention机制):抓住主要的词汇(每个词的重要程度通过权重数值和权重矩阵体现出来)
⑥self-attention
(自注意力模型):不是给某些搜索方向提前标注大权重的词 (从注意到self-attention自注意力机制)
⑦q\k\v三矩阵在做线性代数(q矩阵和k矩阵做了很多点乘和像素计算得到v矩阵):
q:问题
k:固定的二维数组
v:权重数值
三、应用技术:fine tune介绍
1)三层分层
①第一层:
指令编程(不停跟大模型对话总结经验)、AI编程、AI测试
②第二层:
向量数据库、向量检索、langchain、sk、智能体(autogpt这样的东西)
③第三层:
模型定制:fine tune(专业领域就不行了)
2)原理讲解
- 步骤
①收集示范数据(制定了很多prompt)
②收集比较数据,并训练奖励模型(fine tuning)
③使用强化学习针对奖励模型优化策略 - 解释
①fine tune就是对参数小范围的波动微调下
3)中文版原理讲解(第一步只要一次,第二和第三要很多次)
①step 1:
1)组织很多数据(a labeler),就比如说律师的官司一问一答(只做一次
)
2)这些数据就是对这些不咋地的数据进行fine tune(模型精调,这些过程叫SFT)
②step2:
根据你的问题排序(rank)之前生成的labelers
③step 3:
能得到人类更好的内容将会得到更多积分,强化学习
文章来源:https://www.toymoban.com/news/detail-807972.html
链接文章来源地址https://www.toymoban.com/news/detail-807972.html
到了这里,关于AI大模型预先学习笔记一:transformer和fine tune技术介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!