机器学习:self supervised learning

这篇具有很好参考价值的文章主要介绍了机器学习:self supervised learning。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning

  • 340M 参数

机器学习:self supervised learning
机器学习:self supervised learning

机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning

BERT

自监督学习的目标跟目标越接近越好。
机器学习:self supervised learning
一个任务:预测句子中被mask的词:
BERT通过Masking Input来获得训练数据
机器学习:self supervised learning

mask有两种做法:

  • 将某个字token换成一个特殊符号(代表盖住)

  • 随机把某个字换成另外一个字
    机器学习:self supervised learning
    盖住的部分输出的向量作为Linear层的输入,然后送入softmax得到所有感兴趣词的概率分数。
    盖住的字就能作为标签
    机器学习:self supervised learning
    另外一个任务:预测下一句

  • cls

  • sep
    机器学习:self supervised learning
    两个句子应不应该接到一起,这项任务太简单了。改进的方法:RoBERTa,SOP(前后句子都能互相组队)
    机器学习:self supervised learning

使用BERT

  • 填空题
  • 预测下一句
    基于上面功能可以做一些downstream任务
    机器学习:self supervised learning
    用Pre-train训练,fine-tune Bert模型
模型评估

机器学习:self supervised learning
九个任务上的平均分是多少表示模型的好坏。
机器学习:self supervised learning
基于Bert模型,自然语言处理能力有比较大的提升。

使用
  • case1: 输入是序列,输出是类别。
    bert提取特征,加线性层+softmax分类,仍然需要一些标注数据
    机器学习:self supervised learning
    机器学习:self supervised learning

主要是学线性层的参数,bert得到的权重比随机初始化的要好。
机器学习:self supervised learning

  • case2: 输入是序列,输出也是序列,类似于输入,比如词性标注
    机器学习:self supervised learning
  • case3: 输入两个句子,输出一个类别,比如推理(基于输入能否推出某个论点)
    机器学习:self supervised learning
    机器学习:self supervised learning
  • case4: 问答系统(有点限制的问答,答案一定出现在文章里面)
    机器学习:self supervised learning
    输入一个问题,输出两个正整数,表示第s个字到第e个字作为答案。
    机器学习:self supervised learning
    机器学习:self supervised learning
    机器学习:self supervised learning
    正确答案在文章中的起始位置和结束位置。
    把文章截成一小段一小段作为训练数据。

机器学习:self supervised learning

  • BERT
  • ALBERT

时间:

  • TPU V3 花费8天
    机器学习:self supervised learning
    机器学习:self supervised learning
    将句子弄坏,看看后续能不能还原出来。
    机器学习:self supervised learning
    机器学习:self supervised learning
  • T5 训练,公开数据1PB
BERT工作原理

将字转成embeeding后,相近的字特征空间里比较接近
机器学习:self supervised learning
计算特征之间的相似性:

机器学习:self supervised learning
机器学习:self supervised learning
BERT的输出,每个向量代表那个对应的输入的字。一个词汇的意思取决于上下文:
机器学习:self supervised learning
早期的cbow技术的思想与BERT的想法一样,word embedding, 两层线性层。Bert就是深度学习版本的cbow,还考虑上下问:
机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning
DNA转成对应的文字,然后再做分类:
机器学习:self supervised learning
机器学习:self supervised learning

Multi-lingual BERT

机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning
用多种语言混合的训练填空题,结果在QA时候用英文训练,能够比较好的回答中文的QA;
机器学习:self supervised learning
不同语种之间相同意思在特征空间比较

机器学习:self supervised learning
机器学习:self supervised learning
两天没有变,一周突然就变了:
机器学习:self supervised learning
资料变多,训练效果就变好。

机器学习:self supervised learning
矛盾点:英文输出英文,中文输出中文,假如BERT能够学习不同语言的embedding,假如是英文句子空着的地方,为什么不推理出来的是中文呢?说明BERT还是能够识别出语种的差距:
机器学习:self supervised learning
加上差距后就能英文输入,中文输出:
机器学习:self supervised learning

GPT

任务是预测接下来后出现的token是什么
机器学习:self supervised learning
应用的是Transformer的decoder,不会看到之后的词:
机器学习:self supervised learning
有生成文字的能力:
机器学习:self supervised learning

使用

机器学习:self supervised learning
机器学习:self supervised learning

  • few shot learning
  • one-shot learning
  • zero-shot learning
    机器学习:self supervised learning
    机器学习:self supervised learning
    第3代GPT在42个任务上进行测试,效果还不是很好,但是在3.5及以后,效果基本上达到人类水平。
    GTP3的细节:
    机器学习:self supervised learning

其他方面

机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning
机器学习:self supervised learning
语音mask版本的bert和gpt,预测接下来出现的内容。缺评测的benchmark,文本类的有GLUE,语音上有superb
机器学习:self supervised learning
机器学习:self supervised learning文章来源地址https://www.toymoban.com/news/detail-500682.html

到了这里,关于机器学习:self supervised learning的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [论文阅读]Self-Supervised Learning for Videos: A Survey

    Schiappa, M. C., Rawat, Y. S., Shah, M. (2023). Self-Supervised Learning for Videos: A Survey. ACM Comput. Surv., 55(13s), 1–37. https://doi.org/10.1145/3577925 论文中文名称:视频的自监督学习综述 摘要: 深度学习在各个领域取得的显著成功依赖于大规模标注数据集的可用性。然而,获取标注是昂贵且需要巨

    2024年01月17日
    浏览(43)
  • EMP-SSL: TOWARDS SELF-SUPERVISED LEARNING IN ONETRAINING EPOCH

    Recently, self-supervised learning (SSL) has achieved tremendous success in learning image representation. Despite the empirical success, most self-supervised learning methods are rather “inefficient” learners, typically taking hundreds of training epochs to fully converge. In this work, we show that the key towards efficient self-supervised learning is

    2024年02月15日
    浏览(33)
  • 【深度学习】半监督学习 Efficient Teacher: Semi-Supervised Object Detection for YOLOv5

    https://arxiv.org/abs/2302.07577 https://github.com/AlibabaResearch/efficientteacher 半监督目标检测(SSOD)在改善R-CNN系列和无锚点检测器的性能方面取得了成功。然而,一阶段基于锚点的检测器缺乏生成高质量或灵活伪标签的结构,导致SSOD存在严重的一致性问题。本文提出了Efficient Teacher框架

    2024年02月11日
    浏览(36)
  • 【自监督学习】对比学习(Contrastive Learning)介绍

    1.1. 为什么要进行自监督学习        我们知道,标注数据总是有限的,就算ImageNet已经很大,但是很难更大,那么它的天花板就摆在那,就是有限的数据总量。NLP领域目前的经验应该是:自监督预训练使用的数据量越大,模型越复杂,那么模型能够吸收的知识越多,对下游

    2024年02月07日
    浏览(48)
  • 迁移学习(CLDA)《CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation》

    Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文标题:CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation 论文作者:Ankit Singh 论文来源:NeurIPS 2021 论文地址:download  论文代码:download 视屏讲解:click 动机 :半监督导致来自标记源和目标样本的监督只能确保部分跨域特征对

    2023年04月17日
    浏览(29)
  • Video Self-Supervised Pertraining(Video SSL)

    Video Self-Supervised learning (SSL) :Video Model 在大规模 unabled dataset 上 Pertraining,然后在 labeled dataset 上 Finetuning: Video Pertraining Downstream Evaluation将预训练的Video Model经过Zero-Shot(不再训练)、Fine-tuning(需要再训练)、Linear probing(需要再训练).通常在以下Task上进行测试评估: A

    2024年03月14日
    浏览(57)
  • 论文阅读:SERE: Exploring Feature Self-relation for Self-supervised Transformer

    Self-supervised 学习目的是在无人工标注的情况下通过自定制的任务(hand-crafted pretext tasks)学习丰富的表示。 使用 自监督学习 为卷积网络(CNN)学习表示已经被验证对视觉任务有效。作为CNN的一种替代方案, 视觉变换器 (ViT)具有强大的表示能力,具有 空间自注意力和通道

    2024年02月09日
    浏览(30)
  • 初探BERT&Pre-train&Self-supervise

    因为一次偶然的原因,自己有再次对Bert有了一个更深层地了解,特别是对预训练这个概念,首先说明,自己是看了李宏毅老师的讲解,这里只是尝试进行简单的总结复述并加一些自己的看法。 说Bert之前不得不说现在的语言模型与芝麻街有密切的联系了: 以前,在自然语言处

    2024年02月09日
    浏览(49)
  • 论文阅读 Self-Supervised Burst Super-Resolution

    这是一篇 ICCV 2023 的文章,主要介绍的是用自监督的方式进行多帧超分的学习 Abstract 这篇文章介绍了一种基于自监督的学习方式来进行多帧超分的任务,这种方法只需要原始的带噪的低分辨率的图。它不需要利用模拟退化的方法来构造数据,而且模拟退化的方法又可能存在域

    2024年01月18日
    浏览(40)
  • 【论文阅读】Digging Into Self-Supervised Monocular Depth Estimation

    论文:https://arxiv.org/pdf/1806.01260.pdf 代码:https://github.com/nianticlabs/monodepth2 A: 这篇论文试图解决的问题是如何提高仅使用单目图像进行深度估计的性能。具体来说,它关注的是如何在没有像素级地面真实深度数据的情况下,通过自监督学习方法训练模型来生成高质量的深度图。

    2024年04月17日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包