【轻量型卷积网络】MobileNet系列:MobileNet V3网络解析

这篇具有很好参考价值的文章主要介绍了【轻量型卷积网络】MobileNet系列:MobileNet V3网络解析。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【轻量型卷积网络】MobileNet系列:MobileNet V3网络解析


1. 介绍

论文地址:论文链接

1.1 关于v1和v2

  • MobileNet-v1的主要思想就是深度可分离卷积,大大减少了参数量和计算量。可以参考 MobileNet V1网络解析。
    深度可分离卷积 可理解为 深度卷积 + 逐点卷积。
    • 深度卷积:深度卷积只处理长宽方向的空间信息;逐点卷积只处理跨通道方向的信息。能大大减少参数量,提高计算效率。 一个卷积核只处理一个通道,即每个卷积核只处理自己对应的通道。输入特征图有多少个通道就有多少个卷积核。将每个卷积核处理后的特征图堆叠在一起。输入和输出特征图的通道数相同。
    • 逐点卷积: 是使用1x1卷积对跨通道维度处理,有多少个1x1卷积核就会生成多少个特征图。用于跨通道扩充维度。

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

  • MobileNet-v2 使用了逆转残差模块和最后一层采用线性层(而不是relu)。可以参考 MobileNet V2网络解析。
    • 输入图像,先使用1x1卷积提升通道数;然后在高维空间下使用深度卷积;再使用1x1卷积下降通道数,降维时采用线性激活函数(y=x)。当步长等于1且输入和输出特征图的shape相同时,使用残差连接输入和输出;当步长=2(下采样阶段)直接输出降维后的特征图。
    • 对比 ResNet 的残差结构。输入图像,先使用1x1卷积下降通道数;然后在低维空间下使用标准卷积,再使用1x1卷积上升通道数,激活函数都是ReLU函数。当步长等于1且输入和输出特征图的shape相同时,使用残差连接输入和输出;当步长=2(下采样阶段)直接输出降维后的特征图。

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

1.2 v3の介绍

相对于v2,主要有3个变化:

  • block结构发生改变,在v2的bottleneck block里加入了Squeeze-and-Excitation block。
  • 算法内部微结构变化,把部分relu6使用hard-swish替换,把全部sigmoid使用hard-sigmoid替换。
  • 使用Platform-Aware Neural Architecture Search(NAS)来形成网络结构,并利用NetAdapt技术进一步筛选网络层结构。

2. 模型

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

  • 主要有以下改进:(1)添加SE注意力机制;(2)使用新的激活函数;(3)重新设计耗时层结构

2.1 添加SE注意力机制

  • 先将特征图进行全局平均池化,特征图有多少个通道,那么池化结果(一维向量)就有多少个元素,[h, w, c]==>[None, c]。
  • 然后经过两个全连接层得到输出向量。第一个全连接层的输出通道数等于原输入特征图的通道数的1/4;第二个全连接层的输出通道数等于原输入特征图的通道数。即先降维后升维。
  • 全连接层的输出向量可理解为,向量的每个元素是对每张特征图进行分析得出的权重关系。比较重要的特征图就会赋予更大的权重,即该特征图对应的向量元素的值较大。反之,不太重要的特征图对应的权重值较小。
  • 第一个全连接层使用ReLU激活函数,第二个全连接层使用 hard_sigmoid 激活函数。
  • 经过两个全连接层得到一个由channel个元素组成的向量,每个元素是针对每个通道的权重,将权重和原特征图的对应相乘,得到新的特征图数据。

以下图为例,特征图经过两个全连接层之后,比较重要的特征图对应的向量元素的值就较大。将得到的权重和对应特征图中的所有元素相乘,得到新的输出特征图。

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

2.2 使用不同的激活函数

  • swish激活函数公式为: x e − x \frac{x}{e^{-x}} exx,尽管提高了网络精度,但是它的计算、求导复杂,对量化过程不友好,尤其对移动端设备的计算。
  • h_sigmoid激活函数公式为: R e L U 6 ( x + 3 ) 6 \frac{ReLU6(x+3)}{6} 6ReLU6(x+3),ReLU6激活函数公式为: m i n ( m a x ( x , 0 ) , 6 ) min(max(x,0),6) min(max(x,0),6)
  • h_swish激活函数公式为: x ∗ R e L U 6 ( x + 3 ) 6 x*\frac{ReLU6(x+3)}{6} x6ReLU6(x+3),替换之后网络的推理速度加快,对量化过程比较友好。

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

2.3 重新设计耗时层结构

  • 减少第一个卷积层的卷积核个数。将卷积核个数从32个降低到16个之后,准确率和降低之前是一样的。减少卷积核个数可以减少计算量,节省2ms时间。
  • 简化最后的输出层。删除多余的卷积层,在准确率上没有变化,节省了7ms执行时间,这7ms占据了整个推理过程的11%的执行时间。明显提升计算速度。

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

2.4 总体流程

图像输入,先通过1x1卷积上升通道数;然后在高维空间下使用深度卷积;再经过SE注意力机制优化特征图数据;最后经过1x1卷积下降通道数(使用线性激活函数)。当步长等于1且输入和输出特征图的shape相同时,使用残差连接输入和输出;当步长=2(下采样阶段)直接输出降维后的特征图。
mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

2.5 网络结构图

网络模型结构如图所示。exp size 代表11卷积上升的通道数;#out 代表11卷积下降的通道数,即输出特征图数量;SE 代表是否使用注意力机制;NL 代表使用哪种激活函数;s 代表步长;bneck 代表逆残差结构;NBN 代表不使用批标准化。

mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉
mobilenetv3,# 卷积网络,计算机视觉,网络,深度学习,计算机视觉

3. 参考

【1】https://blog.csdn.net/dgvv4/article/details/123476899文章来源地址https://www.toymoban.com/news/detail-780271.html

到了这里,关于【轻量型卷积网络】MobileNet系列:MobileNet V3网络解析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • MobileNet系列(2):MobileNet-V2 网络详解

    MobileNet-V2论文:Inverted Residuals and Linear Bottlenecks, MobileNet-V2网络是由google团队在2018年提出的,相比MobileNetV1网络, 准确率更高,模型更小 。 网络中的亮点 Inverted Residuals (倒残差结构) Linear Bottlenecks 普通的残差结构 Resnet 网络提供的残差结构,如下图: 首先对输入特征矩阵

    2024年02月05日
    浏览(31)
  • 基于卷积神经网络的农作物病虫害图像识别(Opencv,Pytorch,Tensorflow,MobileNetV3)

    最近做了一个农作物虫害图像识别的程序,在此分享一下。本文用到的深度学习框架为Tensorflow2,Opencv等等!使用的数据集共有61种类别,分别代表不同的虫害类别。使用的网络模型为moblienetv3. Bi 设 Dai 坐 效果视频如下所示: 农作物虫害图像识别 代码如下所示:

    2024年02月11日
    浏览(30)
  • 【轻量化网络】MobileNet系列

    论文:https://arxiv.org/abs/1704.04861 代码: 解读:【图像分类】2017-MobileNetV1 CVPR_說詤榢的博客-CSDN博客   论文:https://arxiv.org/abs/1801.04381 代码:https://github.com/d-li14/mobilenetv2.pytorch 解读:【图像分类】2018-MobileNetV2_[18]sandler m,howard a,zhu m,et al. mobilenetv2: i_說詤榢的博客-CSDN博客 论文

    2024年02月09日
    浏览(21)
  • Python基于深度学习机器学习卷积神经网络实现垃圾分类垃圾识别系统(GoogLeNet,Resnet,DenseNet,MobileNet,EfficientNet,Shufflent)

    文章目录 1 前言+ 2 卷积神经网络(CNN)详解+ 2.1 CNN架构概述+ 2.1.1 卷积层+ 2.1.2 池化层+ 2.1.3 全连接层 2.2 CNN训练过程+ 2.3 CNN在垃圾图片分类中的应用 3 代码详解+ 3.1 导入必要的库+ 3.2 加载数据集+ 3.3 可视化随机样本+ 3.4 数据预处理与生成器+ 3.5 构建、编译和训练CNN模型+ 3.5.

    2024年02月04日
    浏览(35)
  • MobileNet(V1、V2、V3)入门

    可以很好的使用在移动设备上做分类、检测、分割等任务 第一步:有多少个输入,就有多少个输出,这一步用来提取特征,然后使用1x1的过滤器增加通道数 第二步:在这一步进行1x1卷积,相当于分成两步提取特征 虽然麻烦了,但是可以减少参数量和计算量,均可以减少到卷

    2024年02月03日
    浏览(24)
  • YOLOv5改进系列(5)——替换主干网络之 MobileNetV3

        【YOLOv5改进系列】前期回顾: YOLOv5改进系列(0)——重要性能指标与训练结果评价及分析 YOLOv5改进系列(1)——添加SE注意力机制 YOLOv5改进系列(2#

    2024年02月06日
    浏览(41)
  • MobileNet v1&v2&v3 创新点及结构简述

    一、背景 二、MobileNet v1 1. 网络创新点 2. 网络结构 三、MobileNet v2 1. 网络创新点 2. 网络结构 四、MobileNet v3 1. 网络创新点 2. 网络结构 MobileNet v1是由google团队在2017年提出的, 专注于移动端或者嵌入式设备中的轻量级CNN网络。 相比传统卷积神经网络,在准确率小幅降低的前提下

    2024年02月09日
    浏览(32)
  • 轻量级卷积神经网络MobileNets详细解读

    随着深度学习的飞速发展,计算机视觉领域内的卷积神经网络种类也层出不穷。从1998年的LeNet网络到2012引起深度学习热潮年的AlexNet网络,再到2014年的VGG网络,再到后来2015的ResNet网络,深度学习网络在图像处理上表现得越来越好。但是这些网络都在不断增加网络深度和宽度来

    2024年02月04日
    浏览(29)
  • 【RT-DETR有效改进】华为 | GhostnetV2移动端的特征提取网络效果完爆MobileNet系列

    👑 欢迎大家订阅本专栏,一起学习RT-DETR 👑  本文给大家带来的改进机制是华为移动端模型GhostNetV2,华为 GhostNetV2 是为 移动应用设计的轻量级卷积神经网络(CNN) ,旨在提供更快的推理速度,其引入了一种硬件友好的注意力机制,称为DFC注意力。这个注意力机制是基于全

    2024年01月22日
    浏览(39)
  • YOLOv8优化策略:轻量化改进 | MobileNetV3,轻量级骨架首选

     🚀🚀🚀 本文改进:MobileNetV3的创新点包括:使用自适应瓶颈宽度、借鉴SENet中的Squeeze-and-Excitation机制、引入h-swish激活函数等。  🚀🚀🚀YOLOv8改进专栏: 学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研; 论文:https://arxiv.org/pdf/1905.02244.pdf  MobileNetV1、V2、V3都是G

    2024年01月24日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包