[PyTorch][chapter 9][李宏毅深度学习][Why Deep]

这篇具有很好参考价值的文章主要介绍了[PyTorch][chapter 9][李宏毅深度学习][Why Deep]。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言:

       我们知道深度学习一个重要特征是网络堆叠,深。 为什么需要深度,

本篇主要简单介绍一下该原因

目录:

   1: 简介

   2: 模块化分析

   3:  语音识别例子


一  简介

         有人通过实验,使用相同的网络参数,深度越深的网络相当于浅层网络效果更好。

        1.1  Deeper is Better

             如下图,随着网络层次逐渐加深,文本错误率逐渐降低

     [PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

  如下图,我们只用一层的网络,参数量跟多层一样,错误率高很多.

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

为什么产生这种现象?

同样的参数量,深度网络比浅层网络效果更好。


二  模块化分析

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

    我们写程序,也把函数分为不同模块,实现不同功能

深度学习不同的层也相当于不同的函数,不同的函数实现不同的功能,

更高层也能使用到.

2.1  数据集的影响

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

 比我我们要通过一个神经网络实现做4分类

长头发女生 数据量大
长头发男生 数据量小
短头发女生 数据量大
短头发男生 数据量小

因为长头发男生数据集小,训练的网络一般会比较差。

解决方案:

         使用更深层次的网络,有的用来识别男女,有的用来识别短头发长头发

然后更高层次的网络用来做4分类.

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

  深度学习就相同于实现上面模组化的功能,每一层的神经元的输出,作为下一层神经元的输入.

我们没有足够的训练数据,所以做Deep Learning

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能


三   语音识别例子 

  以发音识别为例:

输入了语音特征,输出对应的概率

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

在深度学习采样的模型如下:绿色模块是一些根据专家信息提取的声音

特征信息

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

Google 曾经做过实验:

    使用深度学习的模型甚至完全不需要上面绿色的模块

可以达到前面模型一样的准确率.

[PyTorch][chapter 9][李宏毅深度学习][Why Deep],深度学习,pytorch,人工智能

11: Why Deep?_哔哩哔哩_bilibili文章来源地址https://www.toymoban.com/news/detail-822871.html


到了这里,关于[PyTorch][chapter 9][李宏毅深度学习][Why Deep]的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【chapter30】【PyTorch】[动量与学习率衰减】

    前言:     SGD的不足 :  ①呈“之”字型,迂回前进,损失函数值在一些维度的改变得快(更新速度快),在一些维度改变得慢(速度慢)- 在高维空间更加普遍 ②容易陷入局部极小值和鞍点  ③对于凸优化而言,SGD不会收敛,只会在最优点附近跳来跳去         这里面主

    2024年02月01日
    浏览(25)
  • [PyTorch][chapter 58][强化学习-2-有模型学习2]

    前言:    前面我们讲了一下策略评估的原理,以及例子.    强化学习核心是找到最优的策略,这里    重点讲解两个知识点:     策略改进    策略迭代与值迭代    最后以下面环境E 为例,给出Python 代码 。 目录:      1:  策略改进       2:  策略迭代与值迭代    

    2024年02月06日
    浏览(28)
  • 《人工智能专栏》必读150篇 | 专栏介绍 & 专栏目录 & Python与PyTorch | 机器与深度学习 | 目标检测 | YOLOv5及改进 | YOLOv8及改进 | 关键知识点 | 工具

    各位读者们好,本专栏最近刚推出,限于个人能力有限,不免会有诸多错误,敬请私信反馈给我,接受善意的提示,后期我会改正,谢谢,感谢。 第一步 :[ 购买点击跳转 ] 第二步 : 代码函数调用关系图(全网最详尽-重要) 因文档特殊,不能在博客正确显示,请移步以下链接

    2024年02月02日
    浏览(52)
  • AI写作革命:PyTorch如何助力人工智能走向深度创新

    身为专注于人工智能研究的学者,我十分热衷于分析\\\"AI写稿\\\"与\\\"PyTorch\\\"这两项领先技术。面对日益精进的人工智能科技,\\\"AI写作\\\"已不再是天方夜谭;而\\\"PyTorch\\\"如璀璨明珠般耀眼,作为深度学习领域的尖端工具,正有力地推进着人工智能化进程。于此篇文章中,我将详细解析\\\"

    2024年04月13日
    浏览(44)
  • 人工智能学习07--pytorch14--ResNet网络/BN/迁移学习详解+pytorch搭建

    亮点:网络结构特别深 (突变点是因为学习率除0.1?) 梯度消失 :假设每一层的误差梯度是一个小于1的数,则在反向传播过程中,每向前传播一层,都要乘以一个小于1的误差梯度。当网络越来越深的时候,相乘的这些小于1的系数越多,就越趋近于0,这样梯度就会越来越小

    2023年04月11日
    浏览(35)
  • [PyTorch][chapter 51][PyTorch GPU]

    二 查看具体使用情况

    2024年02月12日
    浏览(23)
  • 人工智能学习07--pytorch15(前接pytorch10)--目标检测:FPN结构详解

    backbone:骨干网络,例如cnn的一系列。(特征提取) (a)特征图像金字塔 检测不同尺寸目标。 首先将图片缩放到不同尺度,针对每个尺度图片都一次通过算法进行预测。 但是这样一来,生成多少个尺度就要预测多少次,训练效率很低。 (b)单一特征图 faster rcnn所采用的一种方式

    2023年04月12日
    浏览(36)
  • PyTorch深度学习实战(2)——PyTorch基础

    PyTorch 是广泛应用于机器学习领域中的强大开源框架,因其易用性和高效性备受青睐。在本节中,将介绍使用 PyTorch 构建神经网络的基础知识。首先了解 PyTorch 的核心数据类型——张量对象。然后,我们将深入研究用于张量对象的各种操作。 PyTorch 提供了许多帮助构建神经网

    2024年02月09日
    浏览(26)
  • [PyTorch][chapter 44][RNN]

    简介             循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network) [1]  。             对循环神经网络的研究始于二十世纪80-

    2024年02月15日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包