分类目录:《深入理解深度学习》总目录
现阶段,预训练语言模型总是可以通过更大的模型和更多的数据获得更好的性能,GPT系列模型就是此类优化方向的典范。RoBERTa(模型名源自论文名A Robustly Optimized BERT Pretraining Approach)是脸书公司提出的在BERT基础上增加训练数据,充分训练得到的预训练语言模型。简言之,RoBERTa与BERT的不同主要在于:
- 使用更多的训练数据。
- 使用动态掩码训练。不考虑动态掩码的改进,RoBERTa就是强化版的BERT,且效果异常出色。
算法细节
训练数据
RoBERTa使用了160GB的训练数据,远超BERT所使用的16GB的训练数据,训练数据具体包括:
- 书籍文本及英文维基百科的文本,即BERT所使用的训练集,共计16GB
- 2016年9月至2019年2月爬取的6300万篇英文新闻稿的文本,共计75GB
- 从Reddit的高赞URL上爬取的网页文本,删除HTML标签后共计38GB
- 取自Common Crawl数据集的一个故事集合,共计31GB
总体而言,在不改变模型大小的情况下,使用10倍于BERT的训练数据,模型可以取得明显的进步。
动态掩码
BERT的MLM训练方法使用静态掩码,其特性是处理训练数据时就将掩码过程完成,即模型所训练的所有数据都是带有固定掩码的数据,同一个训练数据在预处理(分词、BPE等操作)之后就不会再发生改变。而RoBERTa所使用的动态掩码,是在输入模型时随机对输入数据进行掩码操作,即同一个训练数据在不同训练步数时所使用的掩码都不一样,其好处是在不增大训练数据集的前提下,增加模型训练的数据多样性
现阶段,在预训练语言模型领域使用更大的Batch Size和更多的训练数据,训练更长时间,可以显著提高模型性能。在多项文本理解任务上,RoBERTa都达到了SOTA性能,其预训练语言模型被视为加强版的BERT,在实践中,如条件允许,可以直接替换BERT。文章来源:https://www.toymoban.com/news/detail-497665.html
参考文献:
[1] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015
[2] Aston Zhang, Zack C. Lipton, Mu Li, Alex J. Smola. Dive Into Deep Learning[J]. arXiv preprint arXiv:2106.11342, 2021.
[3] 车万翔, 崔一鸣, 郭江. 自然语言处理:基于预训练模型的方法[M]. 电子工业出版社, 2021.
[4] 邵浩, 刘一烽. 预训练语言模型[M]. 电子工业出版社, 2021.
[5] 何晗. 自然语言处理入门[M]. 人民邮电出版社, 2019
[6] Sudharsan Ravichandiran. BERT基础教程:Transformer大模型实战[M]. 人民邮电出版社, 2023
[7] 吴茂贵, 王红星. 深入浅出Embedding:原理解析与应用实战[M]. 机械工业出版社, 2021.文章来源地址https://www.toymoban.com/news/detail-497665.html
到了这里,关于深入理解深度学习——BERT派生模型:RoBERTa(A Robustly Optimized BERT Pretraining Approach)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!