理解3d卷积conv3d

这篇具有很好参考价值的文章主要介绍了理解3d卷积conv3d。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

我的个人理解

作分类时,对于不同类别的数据,无论是使用什么方法和分类器(仅限于线性回归和深度学习)去拟合数据,都首先要构建适合数据的多种特征(比如根据性别、年龄、身高来区分一个人是否喜欢打篮球).之后的处理过程是,权重参数都要和不同的特征分别相乘,然后再将不同的乘积加起来求和,处理过程就是不同特征和对应的权重相乘再相加,而不会是将不同的特征相乘.

对于图像数据,不同的通道表示不同种类的特征,比如RGB通道分别表示红、绿、蓝光谱特征.

而卷积就是分别对不同通道操作,再将这些不同通道的卷积结果相加,而不会将不同通道之间相互卷积.通道始终是独立的,每一个卷积核中的滤波器个数由输入图像的通道数来决定.

conv2d
输入数据是(H,W,band),即为(height,width,band),一个卷积核中的滤波器数量对应于通道数,每个滤波器都是随机生成,一般都是不同的.每个滤波器和对应的波段作卷积,最后不同波段的卷积结果相加输出一个包含一个波段的图像. 滤波器只在每个波段的长、宽方向上移动,滤波器形状为(h,w),是二维的.多个滤波器构成一个卷积核,即为(h,w,b).

conv3d
输入数据是(F,H,W,band),即为(frame,height,width,band).3维卷积滤波器要在每个波段的帧、长、宽方向上移动,滤波器形状为(f,h,w),是三维的.每个波段的数据都是(F,H,W),是三维的,每个滤波器和对应的波段作卷积,得到的结果也是三维数据,之后不同的波段卷积结果相加,得到的结果还是三维的.多个滤波器构成一个卷积核,即为(f,h,w,b).

无论是conv3d还是conv2d,不同的通道都表示不同的特征,都是独立于卷积核的构建的,也不会是卷积的方向;卷积都是分别在不同通道上进行的,最后将所有通道的卷积结果相加.通道数即为卷积核的个数.

注意:如果只是应用的话,理解到是怎么conv3d构建的,是怎么卷积的,就可以了,其中的具体实现不必深究。

注意: 为conv3d作数据准备时候,要再加上一个维度,用来表示帧数,而不是简单地将所有不同时间地影像叠加到通道尺度上.也就是conv2d的数据格式为(H,W,band),而conv3d的数据格式为(F,H,W,band).

参考
讲解最清楚的: https://blog.csdn.net/abbcdc/article/details/123332063?spm=1001.2014.3001.5506
可视化: https://blog.csdn.net/njuptalex/article/details/110124538
Conv1D、Conv2D、Conv3D 讲解: https://blog.csdn.net/bashendixie5/article/details/124189182
keras中实现3D卷积(Con3D)和如何准备3D卷积的输入数据: https://blog.csdn.net/C_chuxin/article/details/83422454
从2d卷积到3d卷积: https://blog.csdn.net/weixin_43026262/article/details/104821804
3d卷积的应用: https://zhuanlan.zhihu.com/p/55567098文章来源地址https://www.toymoban.com/news/detail-423251.html

到了这里,关于理解3d卷积conv3d的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 一维卷积神经网络理解(torch.nn.Conv1d)

    in_channels : (int)输入数据的通道数,即对某条训练数据来说由多少组向量表示。例如对于由一维向量表示的一条数据来说,通道数为1;对于文本数据来说,一个句子是由m个单词组成,那么通道数就可以是m out_channels : (int)卷积产生的通道数,可以理解为卷积核的个数 kernel_siz

    2023年04月08日
    浏览(42)
  • 对于装饰器模式与代理模式的个人理解

    对于这两个十分接近的设计模式,确实容易产生困惑,代理模式和装饰器模式看起来十分相似,都是由两个类实现相同的接口,然后一个类套另一个类。这件事足足困扰了我5分钟之久,在此总结一下它们的差别。 装饰器模式相当于主动可选的代理模式,是对原本功能的拓展

    2024年02月16日
    浏览(30)
  • 在树莓派上实现numpy的conv2d卷积神经网络做图像分类,加载pytorch的模型参数,推理mnist手写数字识别,并使用多进程加速

    这几天又在玩树莓派,先是搞了个物联网,又在尝试在树莓派上搞一些简单的神经网络,这次搞得是卷积识别mnist手写数字识别 训练代码在电脑上,cpu就能训练,很快的: 然后需要自己在dataset里导出一些图片:我保存在了mnist_pi文件夹下,“_”后面的是标签,主要是在pc端导

    2024年02月07日
    浏览(33)
  • 【软考】系统架构设计风格分类的个人理解

    个人适当学习了软考系统架构设计师中关于系统架构设计相关的内容,梳理了一下相关信息。 常见架构类型和常见分类 常见的软考中出现的系统架构列举如下: 分层架构 管道-过滤器架构 客户端-服务器架构 模型-视图-控制器架构,即MVC架构 事件驱动架构 微服务架构 黑板架

    2024年02月16日
    浏览(37)
  • sparse conv稀疏卷积

     很好的教程,感谢作者的分享 通俗易懂的解释Sparse Convolution过程 - 知乎 稀疏卷积和普通卷积的区别 spconv和普通卷积没有区别,最重要的区别在于卷积的数据的存储方式和计算方法,这种计算方法可以增加计算稀疏点云的效率,其他的都是完全相同的(但SubMConv3d还是稍微有点

    2024年02月11日
    浏览(36)
  • [Pytorch]卷积运算conv2d

    torch.nn.functional.Conv2d()的详细参数: 即F.Conv2d的主要参数如下: input:输入特征图 weight:卷积核 bias:偏置参数 stride:卷积步长 padding:填充 dilation:膨胀系数 groups:分组卷积 利用F.Conv2d对图像中的暗线进行识别demo: pytorch中的卷积运算接口可使用torch.nn中的Conv2d(): pytorch官方

    2024年02月14日
    浏览(40)
  • 可变形卷积(Deformable Conv)原理解析与torch代码实现

    1.1 普通卷积原理         传统的卷积操作是将特征图分成一个个与卷积核大小相同的部分,然后进行卷积操作,每部分在特征图上的位置都是 固定 的。 图1 普通卷积过程          图1所示为普通卷积在输入特征图上进行卷积计算的过程,卷积核大小为3*3,在输入特征

    2024年02月03日
    浏览(32)
  • 各种卷积性能对比(Conv,DwConv,GhostConv,PConv,DCNV)

    对比的卷积包括: Conv2D , Depth-Conv2d (DW), Ghost-Conv2D , GSConv2D , DSConv2D , PConv2D , DCNV2 (可变形卷积)、 DCNV3 (可变形卷积) 可以看出来 性能最好 的是 Ghost-Conv2d ,mean_time为 0.00623 ;其次是 DSConv2D 性能也非常好,mean_time为 0.00683 。性能最差很自然就是我们的普通卷积Conv2D PConv 是最新提出来

    2024年02月09日
    浏览(40)
  • 3. 5种常见卷积论文、解读、使用方法、实现代码整理(conv)

    下载地址 Convolution Series 1. Depthwise Separable Convolution Usage 2. MBConv Usage 3. Involution Usage 4. DynamicConv Usage 5. CondConv Usage Pytorch implementation of “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications—CVPR2017” Pytorch implementatio

    2024年02月05日
    浏览(62)
  • Pytorch中的卷积与反卷积(conv2d和convTranspose2d)

    卷积是特征提取的常用操作,卷积可以改变图片的通道和大小,相比全连接操作,卷积可以减少计算量,并且充分融合图像的局部特征。    

    2024年02月06日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包