AI大模型预先学习笔记一:transformer和fine tune技术介绍

这篇具有很好参考价值的文章主要介绍了AI大模型预先学习笔记一:transformer和fine tune技术介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、商业观点:企业借助大模型获得业务增长可能

AI大模型预先学习笔记一:transformer和fine tune技术介绍,人工智能,学习,笔记

二、底层原理:transformer

1)备注

①下面每个步骤都是自回归的过程(aotu-regressive):已输出内容的每个字作为输入,一起生成下一个字
②合起来就是:y1输出之后,y1和x序列一起作为输出,来生成y2;y1和y2加x序列作为输入,来输出y3
③GPT3.5有1750亿参数,也就是1750亿维

2)运行步骤

①把一串输入的字符串拆分成x序列的结构
②再把这串x序列的输入字符串映射成z序列
(z序列是:z1、z2、z3、z4等,不一定必须是512维),每个z是512维坐标的向量,由512个坐标构成
解码器根据传入的z序列生成y序列

3)编码器框架图

AI大模型预先学习笔记一:transformer和fine tune技术介绍,人工智能,学习,笔记
①左边是编码器,右边是解码器
②输入有两个预处理
1)input Embedding:把每个字都变成512个字去描述
2)positionnal Encoding:不仅要把每个字换成512个描述,而是还要关注每个字的位置(也就是关注词的主谓宾)
linear做类似线性回归的东西
softmax:把前序所有的计算结果转化成概率数字,有了概率数字才会知道蹦出来的下个数字是什么
⑤注意力机制(attention机制):抓住主要的词汇(每个词的重要程度通过权重数值和权重矩阵体现出来)
self-attention(自注意力模型):不是给某些搜索方向提前标注大权重的词 (从注意到self-attention自注意力机制)

⑦q\k\v三矩阵在做线性代数(q矩阵和k矩阵做了很多点乘和像素计算得到v矩阵):
q:问题
k:固定的二维数组
v:权重数值

三、应用技术:fine tune介绍

1)三层分层

①第一层:
指令编程(不停跟大模型对话总结经验)、AI编程、AI测试
②第二层:
向量数据库、向量检索、langchain、sk、智能体(autogpt这样的东西)
③第三层:
模型定制:fine tune(专业领域就不行了)

2)原理讲解

  • 步骤
    ①收集示范数据(制定了很多prompt)
    ②收集比较数据,并训练奖励模型(fine tuning)
    ③使用强化学习针对奖励模型优化策略
  • 解释
    ①fine tune就是对参数小范围的波动微调下

3)中文版原理讲解(第一步只要一次,第二和第三要很多次)

①step 1:
1)组织很多数据(a labeler),就比如说律师的官司一问一答(只做一次
2)这些数据就是对这些不咋地的数据进行fine tune(模型精调,这些过程叫SFT)
②step2:
根据你的问题排序(rank)之前生成的labelers
③step 3:
能得到人类更好的内容将会得到更多积分,强化学习

AI大模型预先学习笔记一:transformer和fine tune技术介绍,人工智能,学习,笔记
AI大模型预先学习笔记一:transformer和fine tune技术介绍,人工智能,学习,笔记

AI大模型预先学习笔记一:transformer和fine tune技术介绍,人工智能,学习,笔记

链接文章来源地址https://www.toymoban.com/news/detail-807972.html

到了这里,关于AI大模型预先学习笔记一:transformer和fine tune技术介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 详解AI大模型行业黑话,迅速搞懂提示工程(prompt)、向量工程(embedding)、微调工程(fine-tune)

    大家都在讨论大模型,似乎什么都可以与大模型结合,可当初学者也想上手时,却面临一堆令人头大的词汇,什么Prompt、、Embedding、Fine-tuning,看到瞬间头都大了。一堆英文就算了,还不容易查到正确解释,怎么办呢?别担心,本文就用一种有趣的方式让大家认识它们。 首先

    2024年02月02日
    浏览(40)
  • Fine-tuning:个性化AI的妙术

    一、什么是大模型 ChatGPT大模型今年可谓是大火,在正式介绍大模型微调技术之前,为了方便大家理解,我们先对大模型做一个直观的抽象。 本质上,现在的大模型要解决的问题,就是一个序列数据转换的问题: 输入序列 X = [x1, x2, ..., xm], 输出序列Y = [y1, y2, …, yn],X和Y之

    2024年01月17日
    浏览(54)
  • ChatGPT进阶:利用Fine-tuning训练自己的模型

    ChatGPT是“大力出奇迹”的经典表现,大模型给ChatGPT带来了惊人的智能,但是要训练这样的大模型,可是十分烧钱的,根据OpenAI给出的数据,1700亿参数的Davinci模型从头训练一遍,大概需要耗时3个月,耗资150万美元。那我们普通人或者小公司面对这个高门槛,对自定义模型是

    2024年02月17日
    浏览(52)
  • ChatGPT学习笔记;Meta发布Megabyte AI模型抗衡Transformer

    ChatGPT学习笔记 文章包括如下的内容: ChatGPT 介绍 科普 背景知识 ChatGPT 功能 ChatGPT 原理 等等,文章的地址在这里。 🚀 Meta发布Megabyte AI模型抗衡Transformer:解决后者已知问题、速度提升4成 摘要:Meta团队开发的Megabyte AI模型可以抗衡当前在自然语言处理领域非常流行的Transf

    2024年02月08日
    浏览(38)
  • 使用LoRA对大语言模型LLaMA做Fine-tune

    目前有大量对LLM(大语言模型)做 Fine-tune 的方式,不过需要消耗的资源非常高,例如 Stanford Alpaca: 对LLaMA-7B做Fine-tune,需要4颗A100 (80GB) GPU FastChat/Vicuna: 对LLaMA-7B做Fine-tune,需要4颗A100 (40GB) GPU 这种资源需求令普通的学习者望而却步,使用 LoRA 则可以较好的解决这个问题 LoRA 全

    2024年02月09日
    浏览(44)
  • openai模型个性化训练Embedding和fine-tuning区别

    现在基于自然语言和文档进行对话的背后都是使用的基于嵌入的向量搜索。OpenAI在这方面做的很好,它的Cookbook(github.com/openai/openai-cookbook)上有很多案例,最近他们对文档做了一些更新。 GPT擅长回答问题,但是只能回答它以前被训练过的问题,如果是没有训练过的数据,比如

    2024年02月15日
    浏览(45)
  • 自然语言基础 IMDB下的 MLM (掩码模型) & Bert Fine-tuning (模型微调)

    本文是Hugging Face 上 NLP的一篇代码教程,通过imdb数据集, Fine-tuning微调 Bert预训练模型。 涉及包括: MLM, Bert, Fine-tuning, IMDB, Huggingface Repo 微调的方式是通过调整训练模型的学习率来重新训练模型,这个来自 早期 ACL 2018的一篇paper: 《Universal Language Model Fine-tuning for Text

    2024年02月15日
    浏览(44)
  • AI数字人:基于VITS-fast-fine-tuning构建多speaker语音训练

            VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)是一种语音合成方法,它使用预先训练好的语音编码器 (vocoder声码器) 将文本转化为语音。         VITS 的工作流程如下:         (1)将文本输入 VITS 系统,系统会将文本转化为发音规则。

    2024年02月16日
    浏览(41)
  • 了解大语言模型的参数高效微调(Parameter-Effcient Fine-Tuning)

    🍉 CSDN 叶庭云 : https://yetingyun.blog.csdn.net/ 大语言模型在众多应用领域实现了突破性的进步,显著提升了各种任务的完成度。然而,其庞大的规模也带来了高昂的计算成本。这些模型往往包含数十亿甚至上千亿参数,需要巨大的计算资源来运行。特别是,当需要为特定的下游

    2024年04月14日
    浏览(69)
  • 基于ChatYuan-large-v2 语言模型 Fine-tuning 微调训练 广告生成 任务

    ChatYuan-large-v2 是一个开源的支持中英双语的功能型对话语言大模型,与其他 LLM 不同的是模型十分轻量化,并且在轻量化的同时效果相对还不错,仅仅通过 0.7B 参数量就可以实现 10B 模型的基础效果,正是其如此的轻量级,使其可以在普通显卡、 CPU 、甚至手机上进行推理,而

    2024年02月13日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包