关于3DCNN卷积网络卷积网络结构以及参数变化

这篇具有很好参考价值的文章主要介绍了关于3DCNN卷积网络卷积网络结构以及参数变化。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

关于3DCNN卷积网络卷积网络结构以及参数变化

以下是使用3DCNN的相关代码

model = Sequential()
model.add(Conv3D(32, (3, 3, 5), activation='gelu',input_shape = (75, 55, 88, 1)))
model.add(BatchNormalization())
model.add(MaxPool3D((2, 2, 2)))

model.add(Conv3D(32, (3, 3, 5), activation='gelu'))
model.add(BatchNormalization())
model.add(MaxPool3D((2, 2, 2)))

model.add(Conv3D(32, (3, 3, 5), activation='gelu'))
model.add(BatchNormalization())
model.add(MaxPool3D((2, 2, 2)))

model.add(Flatten())
#model.add(Dense(60, activation='relu'))
model.add(Dense(512, activation='gelu',kernel_regularizer=regularizers.l2(0.003),activity_regularizer=regularizers.l1(0.005)))
#model.add(Dropout(0.5))
model.add(Dense(4))

3d卷积网络,cnn,网络,深度学习

3DCNN卷积

过程中的一般形式

静态图片描述:
3d卷积网络,cnn,网络,深度学习
(a)、(b)图分别表示单通道与多通道的2D卷积操作,其特点即L(Input_shape)=L(kernel),(c)图为3D卷积操作卷积核的深度<输入数据的深度,在同一深度操作完成之后会根据stride跳入下一深度继续进行卷积操作。

动态图片描述:
3d卷积网络,cnn,网络,深度学习
如图所示更加直观的3D卷积CNN网络

3D卷积的参数量以及output_shape

model.add(Conv3D(32, (3, 3, 5), activation='gelu',input_shape = (75, 55, 88, 1)))

输入的数据尺寸=(75,55,88,1)
卷积核大小=(3,3,5)×32
默认stride=(1,1,1)

卷积后尺寸计算

假设输入的特征图(feature map)的shape为[Height, Weight, Channel],对应的字母表示为: [ H − i n , W − i n , C − i n ] [ H_-in , W_-in,C_-in] [Hin,Win,Cin]

  • 卷积核(kernel)的shape为: [ H k , W k ] [ H_k , W_k] [Hk,Wk];
  • 滤波器(filter)的shape为: [ C − o u t , H − o u t , W − o u t , C − i n ] [ C_-out,H_-out , W_-out,C_-in] [Cout,Hout,Wout,Cin]
  • 输出的feature_map的shape为: [ H − o u t , W − o u t , C − o u t ] [ H_-out , W_-out,C_-out] [Hout,Wout,Cout]
  • padding: [ P 1 , P 2 ] [P_1,P_2] [P1,P2]
  • stride: [ S 1 , S 2 ] [S_1,S_2] [S1,S2]
    按照公式:
    H − o u t = ( H − i n + 2 P 1 − H k ) / S 1   + 1 H_-out=(H_-in+2P_1-H_k)/S_1\ +1 Hout=(Hin+2P1Hk)/S1 +1
    W − o u t = ( W − i n + 2 P 2 − W k ) / S 2   + 1 W_-out=(W_-in+2P_2-W_k)/S_2\ +1 Wout=(Win+2P2Wk)/S2 +1
变量数的计算

根据公式:

  • 卷积核参数量: H x × W k H_x×W_k Hx×Wk
  • 滤波器的参数量: C − o u t × H k × W k × C − i n C_-out\times H_k\times W_k\times C_-in Cout×Hk×Wk×Cin
  • bias参数量: C − o u t C_-out Cout
  • 总的参数量: C − o u t × H k × W k × C i n + C − o u t C_-out\times H_k\times W_k\times C_in+C_-out Cout×Hk×Wk×Cin+Cout
Layer(type) outputshape param
conv3d (Conv3D) (None,73,53,84,32) 1472

conv3d由上式计算可得:
shape:(75-3+2×0)/1+1=73,(55-3+2×0)/1+1=55,(88-5+2×0)/1+1,32
param:(3×3×5+1)×32=1472

batch_Normalization

计算过程:
3d卷积网络,cnn,网络,深度学习
故其shape不会发生变化
参数量:BatchNormalization 一般接在卷积层后面,对每个通道都有gamma、beta、mean、variance四个参数(mean、variance是Non-trainable Parameters,不会随着训练更新)。因此,BatchNormalization的参数量=4x上一层的输出的通道数。
因此其参数量:32×4=128

https://www.zhihu.com/search?type=content&q=batchnormalization%E5%8F%82%E6%95%B0%E9%87%8F%E5%A6%82%E4%BD%95%E8%AE%A1%E7%AE%97

MaxPool3D层的参数计算

max3Dpool为最大池化操作,即选取特定尺寸下的最大值,
当最后的尺寸,小于最大池化的特征尺寸时,即舍去该部分多余尺寸,

model.add(MaxPool3D((2, 2, 2)))

output_shape=(36,26,42,32)文章来源地址https://www.toymoban.com/news/detail-762105.html

到了这里,关于关于3DCNN卷积网络卷积网络结构以及参数变化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (草履虫级别的精讲)卷积神经网络的基本组成结构

    目录 前言 卷积神经网络的基本组成结构 一.卷积层 1.标准卷积层 2.形变卷积 3.空洞卷积 二.池化层 1.最大池化层 2.平均池化层 三.激活函数 1.Sigmoid 2.Tanh 3.ReLU 4.Leaky_ReLU  5.Mish 四.损失函数 1.回归损失函数 2.分类损失函数 交叉熵损失函数(CrossEntropy Loss)          平衡交叉熵损失

    2024年02月04日
    浏览(34)
  • 卷积神经网络全解!CNN结构、训练与优化全维度介绍!

    本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。旨

    2024年02月12日
    浏览(26)
  • 头疼!卷积神经网络是什么?CNN结构、训练与优化一文全解

    本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。旨

    2024年02月12日
    浏览(27)
  • Day 84:网络结构与参数

    单层数据 多层管理

    2024年02月11日
    浏览(25)
  • 大数据深度学习卷积神经网络CNN:CNN结构、训练与优化一文全解

    本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。

    2024年02月01日
    浏览(32)
  • YOLOv8改进 | 如何在网络结构中添加注意力机制、C2f、卷积、Neck、检测头

    本篇文章的内容是在大家得到一个 改进版本的 C2f一个新的注意力机制、或者一个新的卷积模块、或者是检测头的时候如何 替换我们YOLOv8模型中的原有的模块 ,从而用你的模块去进行训练模型或者检测。因为最近开了一个专栏里面涉及到挺多改进的地方,不能每篇文章都去讲

    2024年02月05日
    浏览(44)
  • YOLOv5改进 | 一文汇总:如何在网络结构中添加注意力机制、C3、卷积、Neck、SPPF、检测头

    本篇文章的内容是在大家得到一个改进版本的C3一个新的注意力机制、或者一个新的卷积模块、或者是检测头的时候如何替换我们YOLOv5模型中的原有的模块,从而用你的模块去进行训练模型或者检测。因为最近开了一个专栏里面涉及到挺多改进的地方,不能每篇文章都去讲解

    2024年02月19日
    浏览(33)
  • ResNet网络结构,BN以及迁移学习详解

     网络中的亮点: 1.超深的网络结构(超过1000层) 2.提出residual(残差)模块 3.使用Batch Normalization加速训练(丢弃dropout) 左边是将卷积层和池化层进行一个简单的堆叠所搭建的网络结构 20层的训练错误率大概在1%~2%左右 56层的训练错误率大概在7%~8% 所以通过简单的卷积层和池化

    2024年02月11日
    浏览(26)
  • 手搓 自然语言模型 LLM 拆分em结构设计 网络参数对比

    数据 数据集 voc_size hidden_size total total B max_len seconds days 65536 512 37486592 0.03749B 1024 256 0.2 65536 1024 82837504 0.08284B 2048 512 0.5 65536

    2024年02月13日
    浏览(31)
  • Mask RCNN网络结构以及整体流程的详细解读

    Mask RCNN是在Faster RCNN的基础上增加了mask head用于实例分割的模型。 总体来说,Mask RCNN网络结构可以分为: BackBone(ResNet+FPN) — RPN网络(Region Proposal Network) — ROI Head(ROIAlign + cls head + bbox head + mask head) 整体网络结构如下(来自原论文https://arxiv.org/pdf/1703.06870.pdf): Backbone主要由R

    2024年02月13日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包