深度卷积神经网络

这篇具有很好参考价值的文章主要介绍了深度卷积神经网络。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1.AlexNet

2. 代码实现


1.AlexNet

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

(1)特征提取

(2)选择核函数来计算相关性:怎么判断在高维空间里面两个点是如何相关的,如果是线性模型就是做内积。

(3)凸优化问题

(4)漂亮的定理

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

丢弃法的作用就是因为模型太大了,使用它来对模型做正则。Relu相比于sigmoid梯度确实更大,Maxpooling使用的是最大值,因此输出的值比较大,梯度就比较大,训练就更加容易。

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

输入是224*224,因为是rgb图片所以有3个通道。第二张图LeNet不应该还pad2,因为已经是32了。AlexNet用了更大的核窗口11*11,因为此时的输入尺寸很大了,5*5的窗口看到的就太小了。需要更大的核去看更多的方块。通道数变成了96,因为想在第一个卷积层就识别出更多的模式所以就用了更多的通道数。受限于当时的硬件,必须有一个较大的步幅不然后边的计算就会变得很难所以选择4,2*2的池化层和3*3的主要的区别就是,2*2的允许像素往一边移一点,如果是3*3就表示往左移往右移一步都可以。stride=2把输入的高和宽全都减半。

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

pad=2(输出:加入输入等于10,10-5+4+1=10),所以此处pad=2的作用就是让输出和输入有同样的大小。256个卷积核就是输出通道有256个,因为想在这一层识别更多的模式,就需要更多的通道。池化层3*3的窗口,步幅等于2,把输入的高和宽减半。接下来新增了3个卷积层,pad=1输入和输出还是一样(假设输入是10,10-3+2+1=10)。最后经过池化层。

  深度卷积神经网络,深度学习,cnn,深度学习,机器学习

以上是全连接层,因为要做关于1000个输出的分类,所以前面的隐藏层要大一点。

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

ReLu会减缓梯度消失是因为梯度总是比较大,正向梯度总是为1的,而且在零点处一阶导数等于1,所以数值稳定。

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

flop是计算数

深度卷积神经网络,深度学习,cnn,深度学习,机器学习

2. 代码实现

import torch 
from torch import nn
from d2l import torch as d2l

"""容量控制和预处理"""
net=nn.Sequential(
    # 这里使用一个11*11的更大窗口来捕捉对象。
    # 同时,步幅为4,以减少输出的高度和宽度。
    # 另外,输出通道的数目远大于LeNet
    nn.Conv2d(1,96,kernel_size=11,stride=4,padding=2),nn.ReLU(),
    #输入通道数1,输出通道数96,因为现在用的数据集是fashion_mnist所以通道数是1,在原来的
    #Imagenet上应该通道数等于3。
    nn.MaxPool2d(kernel_size=3,stride=2),
    # 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数
    nn.Conv2d(96,256,kernel_size=5,padding=2),nn.ReLU(),
    nn.MaxPool2d(kernel_size=3,stride=2),
    # 使用三个连续的卷积层和较小的卷积窗口。
    # 除了最后的卷积层,输出通道的数量进一步增加。
    # 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度
    nn.Conv2d(256,384,kernel_size=3,padding=1),nn.ReLU(),
    #padding=1使得输入和输出图片的大小不变
    nn.Conv2d(384,384,kernel_size=3,padding=1),nn.ReLU(),
    nn.Conv2d(384,256,kernel_size=3,padding=1),nn.ReLU(),
    nn.MaxPool2d(kernel_size=3,stride=2),
    nn.Flatten(),
    # 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合 
    nn.Linear(6400,4096),nn.ReLU(),
    nn.dropout(p=0.5),
    nn.Linear(4096,4096),nn.ReLU(),
    nn.Dropout(p=0.5),
    # 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000
    nn.Linear(4096,10))


#构造一个高度和宽度都为224的单通道数据,来观察每一层输出的形状。
X=torch.randn(1,1,224,224)
for layer in net:
    X=layer(X)    
    print(layer.__class__.__name__,'output shape\t',X.shape)
    #直接对类或者对象使用xxx.__class__.__name__ ,首先取到xxx的父类,然后返回他的名字
"""结果输出:
Conv2d output shape:         torch.Size([1, 96, 54, 54])
ReLU output shape:   torch.Size([1, 96, 54, 54])
MaxPool2d output shape:      torch.Size([1, 96, 26, 26])
Conv2d output shape:         torch.Size([1, 256, 26, 26])
ReLU output shape:   torch.Size([1, 256, 26, 26])
MaxPool2d output shape:      torch.Size([1, 256, 12, 12])
Conv2d output shape:         torch.Size([1, 384, 12, 12])
ReLU output shape:   torch.Size([1, 384, 12, 12])
Conv2d output shape:         torch.Size([1, 384, 12, 12])
ReLU output shape:   torch.Size([1, 384, 12, 12])
Conv2d output shape:         torch.Size([1, 256, 12, 12])
ReLU output shape:   torch.Size([1, 256, 12, 12])
MaxPool2d output shape:      torch.Size([1, 256, 5, 5])
Flatten output shape:        torch.Size([1, 6400])
Linear output shape:         torch.Size([1, 4096])
ReLU output shape:   torch.Size([1, 4096])
Dropout output shape:        torch.Size([1, 4096])
Linear output shape:         torch.Size([1, 4096])
ReLU output shape:   torch.Size([1, 4096])
Dropout output shape:        torch.Size([1, 4096])
Linear output shape:         torch.Size([1, 10])"""


"""读取数据集"""
# 将AlexNet直接应用于Fashion-MNIST的一个问题是,Fashion-MNIST图像的分辨率28*28(像素)
#低于ImageNet图像。 为了解决这个问题,我们将它们增加到224*224(通常来讲这不是一个明智的做法,
#但在这里这样做是为了有效使用AlexNet架构)。 这里需要使用d2l.load_data_fashion_mnist
#函数中的resize参数执行此调整。
batch_size=128
train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size,resize=224)
#用于获取和读取Fashion-MNIST数据集。 这个函数返回训练集和验证集的数据迭代器。 此外,
#这个函数还接受一个可选参数resize,用来将图像大小调整为另一种形状。

"""训练AlexNet"""
lr,num_epochs=0.01,10
d2l.train_ch6(net,train_iter,test_iter,num_epochs,lr,d2l.try_gpu())
"""结果输出:
loss 0.331, train acc 0.878, test acc 0.883
3941.8 examples/sec on cuda:0"""
#精度有提升,训练速度慢了20倍,


深度卷积神经网络,深度学习,cnn,深度学习,机器学习

参考:

python的__name__、__class__、__dict__、__module__、__qualname__,以及dir的含义与使用场景_python __qualname__-CSDN博客文章来源地址https://www.toymoban.com/news/detail-793989.html

到了这里,关于深度卷积神经网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习入门(三):卷积神经网络(CNN)

    给定一张图片,计算机需要模型判断图里的东西是什么? (car、truck、airplane、ship、horse) CONV:卷积计算层,线性乘积求和 RELU:激励层,激活函数 POOL:池化层,取区域平均或最大(MAX POOL) PC:全连接层 对CNN来说,它是一块一块进行对比的,“小块”称之为Features特征。

    2024年02月11日
    浏览(42)
  • 【深度学习_TensorFlow】卷积神经网络(CNN)

    这篇文章的行文思路如下: 先根据视频了解卷积和卷积神经网络的整体框架 接着了解卷积神经网络构建过程中的一些重要操作,包括内积、填充、池化。 然后介绍卷积层如何实现。 最后用卷积神经网络的开山之作(LeNet-5)来进行上手练习。 最近学习信号与系统的时候,了

    2024年02月07日
    浏览(50)
  • 【深度学习】最强算法之:卷积神经网络(CNN)

    小屌丝 :鱼哥, 看下这个流程图,我没看明白 小鱼 :啥流程图。 小屌丝 :你看,就是这个。 小鱼 :嗯,不错,不错。 小屌丝 :能不能给我讲一讲这个? 小鱼 :你要了解CNN ? 小屌丝 :CNN 是? 小鱼 :…你这… 深度学习知道吗? 小屌丝 :知道啊 小鱼 :你都知道深度

    2024年04月09日
    浏览(40)
  • 学习笔记:深度学习(3)——卷积神经网络(CNN)理论篇

    学习时间:2022.04.10~2022.04.12 CNN(Convolutional Neural Networks, ConvNets, 卷积神经网络)是神经网络的一种,是理解图像内容的最佳学习算法之一,并且在图像分割、分类、检测和检索相关任务中表现出色。 3.1.1 什么是CNN? CNN是一种带有卷积结构的前馈神经网络, 卷积结构 可以减少

    2024年02月03日
    浏览(91)
  • 深度学习入门——卷积神经网络CNN基本原理+实战

    ​ 卷积神经网络(Convolutional Neural Network,CNN)是深度学习技术中最基础的网络结构,模拟人脑工作,具备强大的特征学习能力。CNN结构主要由两部分组成:特征提取部分和分类部分color{blue}{特征提取部分和分类部分}特征提取部分和分类部分。特征提取部分网络将执行一系列

    2024年01月21日
    浏览(49)
  • 【深度学习】6-4 卷积神经网络 - CNN的实现

    CNN的实现 网络的构成是“Convolution - ReLU - Pooling -Affine - ReLU - Affine - Softmax”,我们将它实现为名为 SimpleConvNet 的类。 首先来看一下 SimpleConvNet的初始化( init ),取下面这些参数。 input_dim——输入数据的维度:(通道,高,长) conv_param——卷积层的超参数(字典)。字典的

    2024年02月10日
    浏览(46)
  • 机器学习算法之——卷积神经网络(CNN)原理讲解

            我们知道神经网络的结构是这样的: 那卷积神经网络跟它是什么关系呢? 其实卷积神经网络依旧是层级网络,只是层的功能和形式做了变化,可以说是传统神经网络的一个改进。比如下图中就多了许多传统神经网络没有的层次。 简而言之,卷积神经网络(Convo

    2024年02月04日
    浏览(51)
  • 【机器学习】——续上:卷积神经网络(CNN)与参数训练

    目录 引入 一、CNN基本结构 1、卷积层 2、下采样层 3、全连接层 二、CNN参数训练 总结 卷积神经网络(CNN)是一种有 监督深度模型框架 ,尤其适合处理 二维数据 问题,如行人检测、人脸识别、信号处理等领域,是带有卷积结构的深度神经网络,也是首个真正意义上成功训练

    2024年02月10日
    浏览(52)
  • 深度学习实战——卷积神经网络/CNN实践(LeNet、Resnet)

          忆如完整项目/代码详见github: https://github.com/yiru1225 (转载标明出处 勿白嫖 star for projects thanks) 本系列博客重点在深度学习相关实践(有问题欢迎在评论区讨论指出,或直接私信联系我)。 第一章  深度学习实战——不同方式的模型部署(CNN、Yolo)_如何部署cnn_

    2023年04月11日
    浏览(48)
  • 文本分类系统Python,基于深度学习CNN卷积神经网络

    文本分类系统,使用Python作为主要开发语言,通过TensorFlow搭建CNN卷积神经网络对十余种不同种类的文本数据集进行训练,最后得到一个h5格式的本地模型文件,然后采用Django开发网页界面,实现用户在界面中输入一段文字,识别其所属的文本种类。 在我们的日常生活和工作中

    2024年02月08日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包