GPT(autoregressive)模型是一个自回归模型,利用left-to-right语言模型,由于不是双向attention 机制,因此不能再NLU任务中,获取充分的上下文信息,BERT类似自编码(autoencoding),通过MLm任务学习,但是不能直接应用到text generation;encoder-deconder模型采用再encoder部分双向attention,在decoder部分单向attention,在摘要提取回应生成 DeBERTa
本模型提出的是自回归空白填充(autoregressive),从题目上看,没什么创新,具体的,随机掩盖连续得tokens与自编码思想相同,顺序得重构对应得掩盖连续spans,遵循自回归预训练,如果单独,从这几句话来讲,说实话和 DeBERTa完全一样,唯一不同的是Deberat是在encoder-decoder decoder部分生成目标,但是GLM是在原始位置处生成,如图1文章来源:https://www.toymoban.com/news/detail-522114.html
文章来源地址https://www.toymoban.com/news/detail-522114.html
到了这里,关于GLM: General Language Model Pretrainingwith Autoregressive Blank Infilling翻译理解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!