[nlp] GPT

这篇具有很好参考价值的文章主要介绍了[nlp] GPT。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、联合训练任务

1.1 NTP(Next Token Prediction)

gpt预训练的一个目标函数有两个,第一个是基础的下一个词预测任务,选择一个K窗口,将窗口中的K个词的embedding作为条件去预测下一个词。

[nlp] GPT,nlp,python

1.2 TC(Text Classification)

第二个是一个分类任务,一段话给一个标签,然后去预测这标签。

[nlp] GPT,nlp,python

作为预训练微调时的目标函数是这两个函数的加权和。

他在下接下游任务的时候,是将输入放入到transformer的decoder中,跟bert一样,使用预训练的参数,然后将特征加入到后续的一个FFN中,如下图所示:

 [nlp] GPT,nlp,python

他的层数是12层加768维,bert就是为了跟他做对比实验,才将自己的参数设置成这样的。

二、GPT2

 GPT2是open ai为了回应bert,所文章来源地址https://www.toymoban.com/news/detail-594970.html

到了这里,关于[nlp] GPT的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包