图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)

这篇具有很好参考价值的文章主要介绍了图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

卷积操作

这个不难理解。我们知道图像在计算机中是由一个个的像素组成的,可以用矩阵表示。
假设一个5x5的输入图像,我们定义一个3x3的矩阵(其中的数值是随机生成的)
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
然后我们拿这个卷积核,在输入图像里面,选定左上角那个3x3的矩阵,用卷积核与这个矩阵对应的位置相乘,然后得到的9个数,这9个数再相加,最终得到一个结果。
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
然后把卷积核往右边挪动一格,继续重复上述计算,再得到一个数字。
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
那么算完了,继续往右边挪,再算,
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
三次计算得到的值是
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
然后往下挪一格,继续重复上述操作,直到我们把整个5x5的输入图像全部计算完,得到了9个计算结果
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
这就是我们卷积的结果,这整个操作就是卷积操作。
那么有几个问题:

  • Q1:每次往右挪动只能是1格吗?
  • A1:不是,挪动1格,就是步长为1,如果我们设置步长为2,那就每次挪动2格,stride步长由我们设置
  • Q2:卷积核里面的数值是怎么设置的?
  • A2:初始是随机生成的(后面会学习更新)
  • Q3:所以经过卷积之后,图像一定变小了?
  • A3:不是的,上面的例子,5x5的输入,卷积之后得到3x3,那么我们如果给5x5的图像填充一圈,就变成了7x7的图像了,再去拿这个卷积核进行卷积,就会得到5x5的输出。实际中,我们也确实是这么做的,有一个参数padding即表示是否填充,我们可以设置填充的范围,以及填充的值,一般填充0。

顺便补充一个公式:
假设输入图片为 W x W 卷积核大小为FxF,步长stride=S,padding设置为P(填充的像素数)
则输出图像的大小=(W - F +2P)/S +1

那么,了解了整个卷积的过程,下面这个图就能看懂了。
这个图表示的是输入图像为5x5,卷积核为3x3,步长为1,padding=1,所以得到的输出是5x5
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)

实际操作

卷积的流程是上面讲的那样,实际写代码的时候,我们可以不用那么麻烦,每一步都自己实现。
框架已经帮我们封装好的对应的函数,我们只需要调用函数,传给他相关参数即可。
我们以pytorch框架为例(tensorflow也差不多)
Conv2d操作时我们需要设置以下参数:
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
我们解释几个常用的:

  • in_channels:输入的通道数
  • out_channels:输出的通道数
  • kernel_size:卷积核的大小,类型为int 或者元组,当卷积是方形的时候,只需要一个整数边长即可,卷积不是方形,要输入一个元组表示高和宽。(卷积核不需要你设置,只需要给定大小,里面的值是随机生成的)
  • stride:步长(就是每次挪动几个像素,默认是1)
  • padding:填充几圈,默认是0,不填充(填充的值为0)
  • dilation:控制卷积核之间的间距(设置这个可以做空洞卷积)
  • groups:控制输入和输出之间的连接
  • bias:偏置,是否将一个 学习到的 bias 增加输出中,默认是True
  • padding_mode:设置填充的模式

filter与kernel

这里重点解释以下通道数的问题:
假设一张图片是6x6的,通道数是1(如黑白图像),卷积核大小3x3,步长为1,不填充(padding为0)
我们暂时不考虑out_channels的设置问题,待会再说
也就是说现在的参数设置是:in_channels=1 kernel_size=3 stride=1 padding=0
这我们都能算出来,输出图像是4x4的,我画了个示意图,可以看下:
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
那我们也知道,rgb图像是三通道的,那么假如上图是个rgb图像呢,输出结果是多少呢
也就是说参数设置是:in_channels=3 kernel_size=3 stride=1 padding=0
如图:我们的输出结果依然是1通道的。
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)

可以看到,这里的卷积核变了,变成了三个叠加。
有些同学就是只明白上面那个单通道的卷积操作,但是不明白这个多通道的卷积操作。
当你输入图像是三通道的时候,卷积核就也是三通道的。
其实关键点就在于in_channelsin_channels是输入的通道数,同时它也是滤波器(filter)的通道数。
kernel我们叫做卷积核,大小是3x3
而如果输入是三通道图像的话,那我们的卷积核也会是三通道的
我们把单层的卷积核叫kernel多层叠起来这个叫filter滤波器。

注意:这样解释并非正确,只是方便理解。至于kernelfilter的具体含义,有历史原因,这些术语也是从其他学科流传借鉴下来的,而目学习神经网络也并不需要细究kernelfilter具体指代什么,只要理解这都是卷积核就行了。也可以看本博文评论区同学给出的解释

图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
当你输入图像是三通道的时候,卷积核就也是三通道的。
他们之间的运算是由这个新的卷积核(有27个数),去和输入图像的对应位置做运算。
27个数分别与输入图像中的27个数字对应相乘,然后再相加,得到一个数,重复这个计算,把整个输入图像都走一遍,就得到16个数。
如图:
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)

所以运算出来的也是一维的结果,也就是单通道的结果。

所以,kernel和filter的概念就明白了。
kernel: 内核是一个2维矩阵,长 × 宽。
filter:滤波器是一个三维立方体,长× 宽 × 深度, 其中深度便是由 多少张内核构成。
可以说kernel 是filter 的基本元素, 多张kernel 组成一个filter。
其实本质上kernel和filter都是卷积核而已,只不过一个对应单通道,一个对应多通道
所以filter是几维的取决于输入通道数

那么有两个问题:
一个filter 中应该包含多少张 kernel 呢?
答案是:由输入的通道数in_channels来确定
一层中应该有多少个filter呢?
答案是:看我们想要提取多少个特征,一个filter 负责提取某一种特征,我们想输出多少个特征就设置多少个filter。
那么设置filter的参数是什么呢?
就是前面我们没说的out_channels
不要忘了,out_channels也是可以人为设置的,上面那个图,一个filter运算得到的结果是单通道的,假如你设置out_channels=2
那么就会得到输出通道为2。如图所示:
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)

所以。总结一下就是。
filter有几个决定了输出的通道数
我们写代码的时候,不需要指定filter的数量,而是直接指定输出通道即可,所以输出通道是我们的超参数。
in_channels决定了filter的通道数,out_channels的设置决定了filter的数量,这一层卷积得到的结果的out_channels就是下一层的in_channels
所以,out_channelsin_channels是没有关系的。

1x1的卷积层

1x1的卷积层是特殊的卷积层
卷积核的高和宽都等于1,意味着它不会识别空间信息,因为他每次只看一个空间像素所以不会去识别通道中的空间信息
但是我们经常用它来合并通道
它输出的值等价于将对应的输入位置上的不同通道上的值做加权和
11卷积核的作用就是去融合不同通道的信息可以认为是不做空间的匹配,只是在输入层直接做输入通道和输出通道的融合,等价于将整个输入拉成一个向量,通道数等于feature的数量
1
1的卷积层就等价于一个全连接层,不做任何的控制信息,因为全连接层不考虑空间信息它只考虑在特征维度(也就是输入通道维数)的融合

可视化的例子

我们可以用一个实际的网络LeNET5来看一下我们刚才的解释。
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
这个输入一张32x32的手写数字图片
6@28x28代表:第一卷积层的输出通道是6,输出大小为28x28
第二个是池化层,通道数不变,还是6,大小减半,变成了14x14
第三个还是卷积层,16通道,大小10x10
然后第四个是池化层,16通道,大小5x5
最后跟两个全连接层
最后是输出结果。

LeNET5第一层是一个卷积层,其输入数据是32x32x1,卷积核大小5x5,步长=1,padding=0,输出为6 @ 28×28
那么,这里输入是单通道的,也就是in_channels=1,那么filter的深度也就是1了,但是输出通道要求是6,也就是out_channels=6
也就是需要6个filter,最终得到6个28x28的图像。
如图:这是整个LeNET5的网络可视化模型,蓝色的那个是32x32的,经过卷积,得到了下一层,也就是黄色的那一层,你可以看到,黄色的那一层是一个立方体,我们可以把他展开看看
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
可以看到:展开后确实就是6个28x28的结果
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
这个可视化的网站地址是:https://tensorspace.org/index.html

池化

明白了卷积操作,池化就简单多了。池化操作就是用一个kernel,比如3x3的,就去输入图像上对应3x3的位置上,选取这九个数字中最大的作为输出结果。这就叫最大池化。
输出通道=输入通道
(输入多通道的时候,就是每个通道都池化就好了)
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)

全连接

全连接层一般在卷积神经网络的末尾。他的输入呢是前面卷积池化得到的结果,把结果“展平”,就是把得到的结果矩阵,平铺为一个列向量。那么全连接如何对这个列向量运算呢?
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
如图,假设左边的x1,x2,x3就是我们展平后得到的向量,那么我们用 x 1 × w 11 + x 2 × w 21 + x 3 × w 31 = b 1 x_1\times w_{11} +x_2\times w_{21}+x_3\times w_{31}=b_1 x1×w11+x2×w21+x3×w31=b1
同理,b2也是这么算出来的。这个计算过程可以表示为矩阵运算
图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)
那么这个运算中,只要我们增加w矩阵的列数,就可以得到不同的结果数量。比如w设置为3x3的,那就会得到1x3的结果。所以呢,全连接层输出一列向量,最终得到的结果数量是我们可以定义的。
那么这么做有什么意义呢?
全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。
这么做可以减少特征位置对分类带来的影响,本来feature map是一个矩阵,所以特征的位置对分类是有影响的,比如识别图像里面的猫,猫在图像的左上角,那么左上角就可以检测到,右下角就检测不到,但是呢,我们那这个二维的矩阵,通过全连接层,整合成一个值输出,这个值就是对猫的预测概率,不论猫在哪,只要概率大,就是有猫。这样做忽略了空间结构特征,增强了鲁棒性。文章来源地址https://www.toymoban.com/news/detail-489586.html

到了这里,关于图解神经网络:卷积、池化、全连接(通道数问题、kernel与filter的概念)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 卷积神经网络中的卷积层、池化层、全连接层、softmax

    卷积层的作用是提取输入图片中的信息,这些信息被称为图像特征,这些特征是由图像中的每个像素通过组合或者独立的方式所体现,比如图片的纹理特征,颜色特征。 卷积操作类似于数学中的卷积,但是更加简单,计算机和我们看到的图像不一样,计算机看到的图像其实就

    2024年02月09日
    浏览(41)
  • 【探索AI】十八 深度学习之第3周:卷积神经网络(CNN)(二)-常见的卷积层、池化层与全连接层

    卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习算法,特别适用于处理图像相关的任务。CNN通过模拟人脑视觉皮层的层次化结构,实现了对图像的高效特征提取和分类。下面将详细介绍CNN的基本原理和结构,包括卷积层、池化层和全连接层的作用和位置。 卷积层

    2024年04月16日
    浏览(42)
  • 神经网络卷积反卷积及池化计算公式、特征图通道数(维度)变化实例

    卷积神经网络,要特别注意输入图像的尺寸,如果想套用某个网络结构,需要先通过网络结构计算出输入图像尺寸,将自己的图像调整为所需要的尺寸;也可以根据自己的图像尺寸适当调整网络结构。以下是具体操作方法。 目录 一,要想计算图像尺寸,先要了解基础卷积等

    2024年02月03日
    浏览(41)
  • 卷积神经网络(CNN)之卷积操作、池化操作、激活函数

    前言:卷积神经网络是深度学习算法中一个重要组成部分,在深度学习图像识别技术的应用中起到了关键作用。卷积神经网络和循环神经网络(RNN)都是类似于传统的全连接神经网络(也叫深度神经网络,简称DNN),CNN属于编码了空间相关性的DNN,RNN属于编码了时间相关性的DNN。由

    2024年02月04日
    浏览(37)
  • 【深度学习】神经网络和深度学习--卷积和池化的作用

    深度学习通常指训练大型深度的神经网络的过程。 与传统的神经网络模型相比,深度学习模型在结构上与之非常相似; 不同的是,深度学习模型的“深度”更大,“深度”的体现就是神经网络层数多,神经网络每一层的结点数多。 本章介绍两种深度神经网络——卷积神经网

    2024年02月16日
    浏览(49)
  • 【Python机器学习】卷积神经网络卷积层、池化层、Flatten层、批标准化层的讲解(图文解释)

    卷积神经网络(convolutional neural network, CNN)在提出之初被成功应用于手写字符图像识别,2012年的AlexNet网络在图像分类任务中取得成功,此后,卷积神经网络发展迅速,现在已经被广泛应用于图形、图像、语音识别等领域。 图片的像素数往往非常大,如果用多层全连接网络来

    2024年02月08日
    浏览(42)
  • 图解CNN中的卷积(卷积运算、池化、Padding、多通道的卷积)

    卷积层是深度学习神经网络中经常使用的一种层。它通过卷积运算来提取输入的特征,常用于图像、语音等信号处理任务中。 卷积层有以下几个参数: 卷积核:卷积层中包含若干个卷积核,每个卷积核都是一个二维权重矩阵。卷积核的大小通常是奇数,比如3x3、5x5等,以便

    2024年02月12日
    浏览(40)
  • 每天五分钟计算机视觉:为什么说1*1的卷积核是全连接神经网络?

    上一节课程中我们对1*1的卷积核进行了介绍,他可以降低或者升高输入的通道数,或者增加复杂度。除此之外,1*1的卷积核的效果类似于全连接神经网络,但是并不能完全等价,本节课程我们来详细的看一下,1*1的卷积核和全连接神经网络之间的关系是什么? 如上图所示,假

    2024年02月03日
    浏览(50)
  • 深度学习基础入门篇[8]::计算机视觉与卷积神经网络、卷积模型CNN综述、池化讲解、CNN参数计算

    计算机视觉作为一门让机器学会如何去“看”的学科,具体的说,就是让机器去识别摄像机拍摄的图片或视频中的物体,检测出物体所在的位置,并对目标物体进行跟踪,从而理解并描述出图片或视频里的场景和故事,以此来模拟人脑视觉系统。因此,计算机视觉也通常被叫

    2024年02月05日
    浏览(73)
  • 卷积神经网络轻量化教程之通道剪枝【附代码】

    这两天自己手写了一个可以简单实现通道剪枝的代码,在这篇文章中也会对代码进行讲解,方便大家在自己代码中的使用。 如果还想学习YOLO系列的剪枝代码,可以参考我其他文章,下面的这些文章都是我根据通道剪枝的论文在YOLO上进行的实现,而本篇文章是我自己写的,也

    2024年02月05日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包