ChatGPT原理剖析
Chat-GPT引言
- 直观感受:结果有模有样、每次输出结果都不同、可以追问、幻想出的答案
- 误解:罐头回答、答案是网络搜索的结果
- 真正做的事:文字接龙,function,几率分布 -> 采样
不仅包含现在的输入还有过去的输入,大语言模型 = 文字接龙
训练:寻找函数的过程,使用了网络资料
测试:没有联网
关键技术——预训练
一般的机器学习:
督导式学习
人类提供资料有限,GPT就无法回答
使用网络上的文字来教GPT学习
- GPT:2018年 117M模型,1G数据。单纯用网络资料学习
- GPT-2:2019年,1542M模型,40G数据。开始像模像样地瞎掰,可以回答问题
- GPT-3:2020年,175B模型,45T资料筛选出的570G数据(哈利波特全集的30w倍)。可以写程序了。
参数量越大,正确率越高,但似乎接近极限了
网络资料的缺陷:不受控
解决:督导式学习,微调
预训练的帮助:也许人类不需要教会GPT所有语言。只教会GPT某一个语言的某种任务,自动学会其他语言的相同任务
多种语言预训练,只在某种语言上微调
增强式学习只需要人判断答案好不好就行
研究问题
对NLP领域影响很大,也带来了新的研究方向。
- 如何精准提升需求?催眠(Prompting)。有没有更好的方式找到prompting
- 如何更正错误?把某一个答案弄对,弄错了更多答案
- 侦测AI生成的物件
- 不小心泄露人类秘密
machine unlearning
玩文字冒险游戏
提供足够的prompting,midjourney生成图片文章来源:https://www.toymoban.com/news/detail-795299.html
文章来源地址https://www.toymoban.com/news/detail-795299.html
到了这里,关于李宏毅LLM——ChatGPT原理剖析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!