(一) AIGC了解+前置知识

这篇具有很好参考价值的文章主要介绍了(一) AIGC了解+前置知识。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大论文双盲意见还没回来,每天度日如年,慌的一批,唯恐延毕,得找点事情干~
小论文major revision,本来打算一鼓作气把小论文完全改好的,但是搞了三个月的文字工作,好久没有吸收新知识了
所以…每天边学新东西,边改小论文~
最近AIGC比较火,就从它开始吧

AIGC大致了解

AIGC大致了解:
https://zhuanlan.zhihu.com/p/607822576

AIGC白皮书(2022年)
腾讯 :https://www.aliyundrive.com/s/7qESbn8X5ZU
京东 : https://www.aliyundrive.com/s/gThYTCKfqgw

论文推荐
https://zhuanlan.zhihu.com/p/610435858

一些小工具
https://www.aigc.cn/

AIGC前置知识

Transformer

论文 : https://arxiv.org/abs/1706.03762

  1. Transformer模型详解(图解最完整版) https://zhuanlan.zhihu.com/p/338817680
    引申 :
    LayerNorm : https://zhuanlan.zhihu.com/p/54530247
    Seq2Seq-- Teacher Forcing : https://zhuanlan.zhihu.com/p/57155059

Vision-Transformer

结论先行:
ViT原论文中最核心的结论是,当拥有足够多的数据进行预训练的时候,ViT的表现就会超过CNN,突破transformer缺少归纳偏置的限制,可以在下游任务中获得较好的迁移效果
知乎 : https://zhuanlan.zhihu.com/p/445122996

BERT

https://www.bilibili.com/read/cv14514000?spm_id_from=333.999.0.0&jump_opus=1

预训练 - 思路来源于CV领域的权重迁移
减少low level的训练
第一个在NLP领域做的很大的网络

GPT系列

https://zhuanlan.zhihu.com/p/125139937

https://zhuanlan.zhihu.com/p/412351920

变分自编码器

VAE https://zhuanlan.zhihu.com/p/563543020

扩散模型

DDPM https://zhuanlan.zhihu.com/p/590840909

Diffusion https://zhuanlan.zhihu.com/p/599887666文章来源地址https://www.toymoban.com/news/detail-639180.html

到了这里,关于(一) AIGC了解+前置知识的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包