卷积原理(卷积,padding填充,步长,多通道卷积)

这篇具有很好参考价值的文章主要介绍了卷积原理(卷积,padding填充,步长,多通道卷积)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、卷积

卷积可以用于对输入数据进行特征提取,特征提取的过程可以理解为通过卷积对输入特征进行加权运算,提取输入中的重要信息。

卷积运算的过程就是通过卷积核扫描输入矩阵的元素,将卷积核和扫描对应的元素相乘再相加,得到一个输出,通过不断地滑动,得到最后的输出矩阵。其运算过程如下:

卷积原理(卷积,padding填充,步长,多通道卷积)

从卷积运算的过程可以看出,输出特征就是输入特征的加权和。

2、Padding

在上边的例子中,采用3×3的卷积核卷积5×5的输入特征矩阵。从上述运算可以看出两个不足。

第一个是通过卷积后输出矩阵相对于输入矩阵变小了,当参与多层的神经网络时,矩阵会变得越来越小。这对于人信息提取是不利的。

第二个是中间元素参与运算的次数要远大于周围元素,尤其是当输入矩阵是高维时,差距会更大,因此在计算中我们会丢失掉一部分的边缘信息。

为了解决以上两点问题,我们在输入矩阵的周围进行填充。

卷积原理(卷积,padding填充,步长,多通道卷积)

如果输入矩阵的大小是n×n,卷积核的大小是f×f,则输出矩阵的大小为 (n-f+1)×(n-f+1)

如上图所示,我们在输入矩阵的周边像素周围都填充一个元素,用p表示填充数量,图中展示的填充p为1。

用p表示填充数量,则输出矩阵的大小为(n+2p-f+1)×(n+2p-f+1)

根据填充数量不同,通常有Valid卷积和Same卷积。

valid卷积:不对输入矩阵做填充,即p=0。输出矩阵大小为 (n-f+1)×(n-f+1)

Same卷积:输出矩阵和输入矩阵一样大。即n+2p-f+1=n ,也就是说

3、卷积步长

在上述用3×3卷积核卷积5×5矩阵的例子中,我们采用的步长s为1,假如将步长s设置为2,则有:

卷积原理(卷积,padding填充,步长,多通道卷积)

当步长为s,填充数量为p时,输出矩阵的大小为:

n×n       *           f×f       ---->  (卷积原理(卷积,padding填充,步长,多通道卷积))×(卷积原理(卷积,padding填充,步长,多通道卷积)

4、多通道卷积

假设输入数据是多通道的例如彩色图片,有RGB三个通道。针对多通道矩阵,卷积核的通道数应该和输入数据的通道数相同,如下图所示,输入数据是三通道,卷积核也应该是三通道。

 卷积原理(卷积,padding填充,步长,多通道卷积)

三通道的卷积过程是相应通道的卷积核对相应通道的输入矩阵进行卷积,然后再将结果相加。上述三通道卷积计算过程如下(在这里为了计算简便,将三通道的输入设成一样的):

卷积原理(卷积,padding填充,步长,多通道卷积)

 上述图演示的是只有一个卷积核的卷积过程,如果卷积核有两个,则卷积过程如下:

卷积原理(卷积,padding填充,步长,多通道卷积)

卷积核个数为2则输出矩阵的通道数也为2。

假设输入矩阵通道数为n1,卷积核个数为n2,则输出矩阵为:

n×n×n1       *       f×f×n1      --->         (n-f+1)×(n-f+1)×n2文章来源地址https://www.toymoban.com/news/detail-485953.html

到了这里,关于卷积原理(卷积,padding填充,步长,多通道卷积)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 计算机视觉:填充(padding)技术

    在前面的课程中,我们学习了使用3*3的过滤器去卷积一个5*5的图像,那么最终会得到一个3*3的输出。那是因为 3×3 过滤器在 5×5 矩阵中,只可能有 3×3 种可能的位置。 这背后的数学解释是,如果我们有一个n × n的图像,用f×f的过滤器做卷积,那么输出的维度就是 (n−f+1)×(

    2024年02月07日
    浏览(34)
  • 神经网络基础-神经网络补充概念-60-卷积步长

    在深度学习中,卷积步长(convolution stride)是指在卷积操作中滑动卷积核的步幅。卷积操作是神经网络中常用的操作之一,用于从输入数据中提取特征。步长决定了卷积核在输入数据上的滑动间隔,从而影响输出特征图的大小。 卷积步长的值可以是正整数,通常为1、2、3等。

    2024年02月12日
    浏览(40)
  • 反射填充详解ReflectionPad2d(padding)

    这种填充方式是以输入向量的边界为对称轴,以设定的padding大小为步长,将输入向量的边界内pa

    2024年02月01日
    浏览(24)
  • 卷积神经网络中的padding理解

    在进行卷积神经网络中,经常用到padding,padding在卷积神经网络中起到什么样的作用呢,又是如何发挥作用的呢?本文就此谈下自己看法。 通过上面的代码可以看到padding作为参数被使用。那么下面就简单说下关于padding的作用及其如何发挥作用的。 假设我们已经知道了卷积的

    2024年02月06日
    浏览(36)
  • 无卷积步长或池化:用于低分辨率图像和小物体的新 CNN 模块SPD-Conv

    (67条消息) 无卷积步长或池化:用于低分辨率图像和小物体的新CNN模块SPD-Conv-行业报告文档类资源-CSDN文库 https://download.csdn.net/download/weixin_53660567/86737435 摘要 卷积神经网络 (CNNs) 在图像分类和目标检测等计算机视觉任务中取得了显著的成功。然而,当图像分辨率较低或物体较小

    2024年02月02日
    浏览(28)
  • 卷积核如何改变通道数

    卷积核如何改变通道数? 1:如果是240*240彩色图像,它有RGB三通道。 2:使用任意大小的卷积核与其三个通道分别相卷积,如果是3*3的卷积核,就是3*3的卷积核与3个通道都各卷积一次,得到卷积后的三个通道,将三个通道对应位置相加得到一张图片,就是一个通道, 3:将此

    2024年02月13日
    浏览(24)
  • 卷积核的尺寸、数量、通道数

    首先明确两点 : 1. 输入矩阵x格式:四个维度,依次为:样本数、图像高度、图像宽度、图像通道数 输入 x:[batch, height, width, in_channel] 四个维度 权重 w:[height, width, in_channel, out_channel] 输出 y:[batch, height, width, out_channel] 如图所示: Input:batch=1、height=8、width=8、in_channel=3 (四维

    2024年02月08日
    浏览(36)
  • 机器学习-卷积神经网络CNN中的单通道和多通道图片差异

    最近在使用CNN的场景中,既有单通道的图片输入需求,也有多通道的图片输入需求,因此又整理回顾了一下单通道或者多通道卷积的差别,这里记录一下探索过程。 直接给出结论,单通道图片和多通道图片在经历了第一个卷积层以后,就没有单通道或者多通道的区别了,剩下

    2023年04月11日
    浏览(27)
  • 【微信小程序/uniapp】视频如何在pad端可以横屏播放

    相信做视频类小程序的伙伴们一定会遇到视频在【pad】系列上播放的问题,我们会发现,当在pad端点击全屏播放的时候,他是竖屏的全屏(如图1),即便我们旋转屏幕,他依旧是竖屏类型的全屏(如图2) (图1) (图2) 而我们想要的效果是全屏【横屏】播放 那么如何能实

    2024年02月13日
    浏览(71)
  • pytorch代码实现之空间通道重组卷积SCConv

    空间通道重组卷积SCConv,全称Spatial and Channel Reconstruction Convolution,CPR2023年提出,可以即插即用,能够在减少参数的同时提升性能的模块。其核心思想是希望能够实现减少特征冗余从而提高算法的效率。一般压缩模型的方法分为三种,分别是network pruning, weight quantization, low-r

    2024年02月09日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包