BERT精读

这篇具有很好参考价值的文章主要介绍了BERT精读。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

论文精读 —— BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding - 知乎 (zhihu.com)

pre-training:在一个数据集上训练好一个模型,这个模型主要的目的是用在一个别的任务上面。别的任务如果叫training,那么在大的数据集上训练我这个任务叫做pre-training。

NLP任务中使用没有标号的大量数据训练出的模型效果比在有标号的数据上训练效果好,同样的思想,在CV中,可能使用小的没有标签的数据训练的模型比在imagenet上训练的模型效果好。文章来源地址https://www.toymoban.com/news/detail-600627.html

英语积累:

analyzing ... holistically 整体分析
fifine-grained  精确的
unidirectional 单向的
bidirectional  双向的
alleviates 减轻了
fuse 融合
a shallow concatenation 浅层连接
an integral part 不可分割的一部分
integrating 集成
coarser granularities 粗粒度
denoising 去噪的
derived objectives 派生目标
context-sensitive 上下文相关的
benchmarks 基准
from scratch 从头开始做起,从零开始
separate 单独的
unifified architecture 统一架构
across different tasks 跨不同任务的
omit 省略
exhaustive 详细的
unambiguously represent 明确的表示
arbitrary span 任意跨度
contiguous text 连续文本
linguistic sentence 语言句子
WordPiece embeddings 字段嵌入
WordPiece想法:如果一个词在整个里面出现的概率不大的话,我应该把它切开看它的子序列,某个子序列出现的概率较大的话,那么只保留这个子序列就可以了。这样就可以把一个相对来说较长的词切成很多一段一段的片段,且这些片段是经常出现的,这样就可以用一个较小的词典表示较大的文本了。
aggregate sequence 聚合序列
differentiate 区分
indirectly 间接的
trivially predict 简单的预测
fed into 输入
mitigate 使缓和(减轻)
binarized 二值化的
monolingual corpus 单语(只用一种语言的)语料库
Ablation Studies 消融分析

到了这里,关于BERT精读的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • BERT精读

    论文精读 —— BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding - 知乎 (zhihu.com) pre-training:在一个数据集上训练好一个模型,这个模型主要的目的是用在一个别的任务上面。别的任务如果叫training,那么在大的数据集上训练我这个任务叫做pre-training。 NLP任务中使

    2024年02月16日
    浏览(30)
  • 【必看】揭秘AI革命背后的力量!550篇人工智能核心论文深度解析

    大家好,我是你们的知识探索者,今天我带来了一个前所未有的宝藏分享——一份涵盖了550篇人工智能领域核心论文的终极指南!这不仅仅是一份文档,而是一扇通往人工智能世界深处的大门。 ** ** 🌟 为什么这550篇论文至关重要? 在人工智能的浪潮中,无数的研究和实验层

    2024年02月21日
    浏览(54)
  • 李沐论文精读系列二:Vision Transformer、MAE、Swin-Transformer

    传送门: 李沐论文精读系列一: ResNet、Transformer、GAN、BERT 李沐论文精读系列三:MoCo、对比学习综述(MoCov1/v2/v3、SimCLR v1/v2、DINO等) 李沐论文精读系列四:CLIP和改进工作串讲(LSeg、GroupViT、VLiD、 GLIPv1、 GLIPv2、CLIPasso) 论文名称: An Image Is Worth 16x16 Words: Transformers For Imag

    2024年01月17日
    浏览(35)
  • 论文阅读——BERT

    ArXiv:https://arxiv.org/abs/1810.04805 github:GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT   一、模型及特点: 1、模型:         深层双向transformer encoder结构         BERT-BASE:(L=12, H=768, A=12)         BERT-LARGE:(L=24, H=1024, A=16) 2、特点:         不同

    2024年02月08日
    浏览(31)
  • 人工智能论文写作

    阅读摘要 根据摘要,看文章是否需要读。 主要看目的或者方法是不是和自己相关。 阅读和记笔记框架 这里记录好阅读过的论文后,基本上就把relate work这一部分也完成了。 寻找研究痛点 寻找研究方向 方向1 例如: 方向2:当前的热点方向 当前大部分论文都是基于上图这个

    2024年02月09日
    浏览(62)
  • BERT论文解读及实现(一)

    BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding There are two steps in our framework: pre-training and fine-tuning . bert由预训练模型+微调模型组成。 ① pre-training , the model is trained on unlabeled data over different pre-training tasks. 预训练模型是在无标注数据上训练的 ② For fine-tuning, th

    2024年02月13日
    浏览(26)
  • 6月人工智能论文推荐

    https://arxiv.org/abs/2306.03799 Prompt engineering 是通过提供明确和具体的指令来增强大型语言模型(llm)能力的基本技术。它使LLM能够在各种任务中脱颖而出,例如算术推理、问题回答、摘要、关系提取、机器翻译和情感分析。研究人员一直在积极探索不同的提示工程策略,如思维链

    2024年02月10日
    浏览(25)
  • 论文解读:Bert原理深入浅出

    摘取于https://www.jianshu.com/p/810ca25c4502 任务1:Masked Language Model Maked LM 是为了解决单向信息问题,现有的语言模型的问题在于,没有同时利用双向信息,如 ELMO 号称是双向LM,但实际上是两个单向 RNN 构成的语言模型的拼接,由于时间序列的关系,RNN模型预测当前词只依赖前面出

    2024年02月11日
    浏览(32)
  • chat ai人工智能写作(ai人工智能写作神器)

    ChatAI智能写作是一款基于人工智能技术的写作助手,可以帮助用户快速生成高质量的文本内容。它具有以下特点: AI论文,免费大纲,10分钟3万字 👉https://www.aipaperpass.com?pic=mLnw 快速生成文章 :ChatAI智能写作可以根据用户输入的和主题,快速生成符合要求的文章,大大

    2024年03月15日
    浏览(45)
  • 毕业论文如何生成目录?人工智能毕业论文选题

    AIPaperPass是一款专为AI论文写作而设计的创新平台。作为一名研究人员或学生,写作一篇高质量的AI论文可能是一项繁琐而耗时的任务。然而,借助AIPaperPass论文写作生成器,您可以轻松地生成高质量的AI论文,节省宝贵的时间和精力。 ——应用优点—— 1、高效论文生成 AIPa

    2024年02月20日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包