【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

这篇具有很好参考价值的文章主要介绍了【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度神经网络训练

Pre-training + Fine-tuning

  • Pre-training(预训练):
    监督逐层训练是多隐层网络训练的有效手段, 每次训练一层隐层结点, 训练时将上一层隐层结点的输出作为输入, 而本层隐结点的输出作为下一层隐结点的输入, 这称为”预训练”.
  • Fine-tuning(微调):
    在预训练全部完成后, 再对整个网络进行微调训练. 微调一般使用BP算法.
  • Comments:
    预训练+微调 的做法可以视为将大量参数分组, 对每组先找到局部看起来比较好的设置, 然后再基于这些局部较优的结果联合起来进行全局寻优.

训练深度神经网络

参数共享

参数共享是深度神经网络中的一种技术,它使多个神经元在网络中使用相同的参数集。这种技术有助于减少训练网络所需的参数数量,从而提高其计算效率。

卷积神经网络(CNN)

CNN是一种层次特征提取器,用于提取越来越高层次的特征。由于特征的感受域越来越大,特征从局部变为全局。
【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

卷积

卷积是指对两个函数进行加权求和的操作。在卷积神经网络中,卷积操作是指将输入数据与一个卷积核(也称为滤波器或权重)进行卷积计算,得到一个特征映射的过程。

具体来说,卷积操作包括以下三个要素:

  • 输入数据:需要进行卷积计算的数据。
  • 卷积核:用于对输入数据进行卷积的权重参数。
  • 特征映射:经过卷积操作得到的输出结果。

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化
【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

多卷积核

在卷积神经网络中,通常会在每一层使用多个卷积核(也称为过滤器或滤波器)来提取不同的特征。这是因为只使用一个卷积核无法充分提取输入数据的全部信息,而使用多个卷积核可以提取更多的特征信息。

如果只使用一个卷积核来提取特征,则可能会忽略输入数据中的其他特征信息,从而导致信息丢失。而使用多个卷积核可以提取更多的特征信息,并且可以通过堆叠这些特征来形成更高级别的特征表示。高级别的特征通常是由低级别的特征组合而成的,这也是为什么需要使用多个卷积核的原因。

卷积

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化
【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化
【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

全连接

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化
【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

最大池化

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

卷积+池化

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

拉平向量

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

激活函数

【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化文章来源地址https://www.toymoban.com/news/detail-499062.html

优化

  • 当计算从输出到输入的参数梯度时,这就是为什么它被称为反向传播。
  • 由于卷积本质上是加权和,CNN的BP类似于全连接网络的BP。

小结

  • CNN是分层特征提取器,高层特征是下层特征的组合。
  • 卷积是所有输入通道的加权和
  • CNN最常用的激活是ReLU
  • CNN最常用的池化策略是最大池化
  • 训练策略是BP
  • 在验证集中找到导致最大响应的补丁是可视化特征的一种非常简单的方法。
  • LeNet-5、AlexNet、GoogleNet、VGG-Net、ResNet、BN
  • 【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

到了这里,关于【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包