轻量化CNN网络 - MobileNet

这篇具有很好参考价值的文章主要介绍了轻量化CNN网络 - MobileNet。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


传统卷积神经网络,内存需求大、运算量大,导致无法在移动设备以及嵌入式设备上运行。

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

MobileNet网络是由google团队在2017年提出的,专注于移动端或者嵌入式设备中的轻量级CNN网络。相比传统卷积神经网络,在准确率小幅降低的前提下大大减少模型参数与运算量。(相比VGG16准确率减少了0.9%,但模型参数只有VGG的1/32)

1. MobileNet V1

论文:MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications

网址:https://arxiv.org/abs/1704.04861

网络亮点:

  • 深度可分离卷积(大大减少运算量和参数数量)
  • 增加超参数, 控制卷积层卷积核个数的参数 α 和控制输出图像大小的参数 β 控制卷积层卷积核个数的参数\alpha和控制输出图像大小的参数\beta 控制卷积层卷积核个数的参数α和控制输出图像大小的参数β,这两个参数是手动设定的,并不是学习得来的

传统卷积

卷积核通道 = 输入特征矩阵通道

输出特征矩阵通道 = 卷积核个数

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

深度可分离卷积 Depthwise Separable Conv:DW Conv+PW Conv

1.逐通道卷积 Depthwise Conv(DW Conv)

卷积核通道 = 1

输入特征矩阵通道 = 卷积核个数 = 输出特征矩阵通道

Depthwise Convolution的一个卷积核负责一个通道,一个通道只被一个卷积核卷积

一张 5 × 5 5\times5 5×5像素、三通道彩色输入图片(shape为 5 × 5 × 3 5\times5\times3 5×5×3),Depthwise Convolution首先经过第一次卷积运算,DW完全是在二维平面内进行。卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。所以一个三通道的图像经过运算后生成了3个Feature map(如果有same padding则尺寸与输入层相同为 5 × 5 5\times5 5×5),如下图所示。

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

其中一个Filter只包含一个大小为 3 × 3 3\times3 3×3的Kernel,卷积部分的参数个数计算如下: N _ d e p t h w i s e = 3 × 3 × 3 = 27 N\_depthwise = 3\times3 \times3 = 27 N_depthwise=3×3×3=27

Depthwise Convolution完成后的Feature map数量与输入层的通道数相同,无法扩展Feature map。而且这种运算对输入层的每个通道独立进行卷积运算,没有有效的利用不同通道在相同空间位置上的feature信息。因此需要Pointwise Convolution来将这些Feature map进行组合生成新的Feature map。

DW部分的卷积核容易废掉,即卷积核参数大部分为0。

2.逐点卷积 Pointwise Conv (PW Conv)

Pointwise Convolution的运算与常规卷积运算非常相似,它的卷积核的尺寸为 1 × 1 × M 1\times1\times M 1×1×M,M为上一层的通道数。所以这里的卷积运算会将上一步的map在深度方向上进行加权组合,生成新的Feature map。有几个卷积核就有几个输出Feature map。

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

理论上,普通卷积计算量是DW+PW的8到9倍。

MobileNet V1网络结构

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习


2. MobileNet V2

论文:MobileNetV2: Inverted Residuals and Linear Bottlenecks

网址:https://arxiv.org/abs/1801.04381

MobileNet V2网络是由google团队在2018年提出的,相比MobileNet V1网络,准确率更高,模型更小。

网络亮点:

  • Inverted Residuals(倒残差结构)
  • Liner Bottlenecks(线性瓶颈)

Resnet中的残差结构:(激活函数采用ReLU

  • 先使用 1 × 1 1\times1 1×1的卷积核进行降维操作
  • 再进行常规卷积操作
  • 再使用 1 × 1 1\times1 1×1的卷积核进行升维操作

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

倒残差结构:(激活函数采用ReLU6

  • 先使用 1 × 1 1\times1 1×1的卷积核进行升维操作
  • 在进行DW(逐通道卷积)卷积
  • 然后在使用 1 × 1 1\times1 1×1的卷积核进行降维处理(PW逐点卷积)

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

ReLU6激活函数:
y = R e L U 6 ( x ) = m i n ( m a x ( x , 0 ) , 6 ) y = ReLU6(x) = min(max(x,0),6) y=ReLU6(x)=min(max(x,0),6)

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

Linear Bottlenecks (线性瓶颈)

先说瓶颈(Bottleneck), 1 × 1 1\times1 1×1卷积小像个瓶口所以叫瓶颈,该词的来源是resnet的经典网络使用的词汇,当前的MobileNet v2依旧使用了该结构的block。

再说linear,如下图,从下往上看的,看最后的pointwise卷积,之前的pointwise卷积是升维的,轮到最后的pointwise卷积就是降维,设计该网的作者说高维加个非线性挺好,低维要是也加非线性就把特征破坏了,不如线性的好,所以1*1后不加ReLU6 ,改换线性。

针对倒残差结构的最后一个 1 × 1 1\times1 1×1的卷积层,使用了线性激活函数,而非ReLU激活函数。

ReLU激活函数对低维特征信息造成大量损失

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

当stride=1且输入特征矩阵与输出特征矩阵shape相同时才有shortcut连接。

MobileNet V2网络结构

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习


3. MobileNet V3

论文:Searching for MobileNetV3

网址:https://arxiv.org/abs/1905.02244

网络亮点:

  • 更新Block(benck)
  • 使用NAS搜索参数(Neural Architecture Search)
  • 重新设计耗时层结构

更新Block

  • 加入了SE模块(注意力机制)

  • 更新了激活函数

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

注意力机制部分:

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

H-sig:Hard-sigmoid激活函数

重新设计激活函数:

使用swish激活函数,公式如下。
s w i s h ( x ) = x ⋅ σ ( x ) σ ( x ) = 1 1 + e − x swish(x) = x·\sigma(x)\\ \sigma(x) = \frac{1}{1+e^{-x}} swish(x)=xσ(x)σ(x)=1+ex1
σ ( x ) \sigma(x) σ(x)为sigmoid激活函数。

swish激活函数计算、求导复杂,对量化过程不友好,因此,作者提出了h-swish激活函数。
R e L U 6 ( x ) = m i n ( m a x ( x , 0 ) , 6 ) ReLU6(x) = min(max(x,0),6) ReLU6(x)=min(max(x,0),6)

h − s i g m o i d = R e L U 6 ( x + 3 ) 6 h-sigmoid = \frac{ReLU6(x+3)}{6} hsigmoid=6ReLU6(x+3)

h − s w i s h ( x ) = x R e L U 6 ( x + 3 ) 6 h-swish(x) = x\frac{ReLU6(x+3)}{6} hswish(x)=x6ReLU6(x+3)

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

在很多时候,我们会选择使用h-sigmoid激活函数来替换sigmoid激活函数。使用h-swish激活函数来替代h-swish激活函数。

重新设计耗时层结构

1.减少第一个卷积层的卷积核个数(32->16)

2.精简Last Stage

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

这样调整后,作者发现,在准确率方面没有发生很大的变化,但是节省了7毫秒(占推理过程的11%)的执行时间。

MobileNet V3-Large网络结构

轻量化CNN网络 - MobileNet,AI,cnn,网络,深度学习

注意:在第一个bneck中,并没有使用 1 × 1 1\times1 1×1对卷积进行升维操作。文章来源地址https://www.toymoban.com/news/detail-801668.html

到了这里,关于轻量化CNN网络 - MobileNet的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习1.卷积神经网络-CNN

    目录 卷积神经网络 – CNN CNN 解决了什么问题? 需要处理的数据量太大 保留图像特征 人类的视觉原理 卷积神经网络-CNN 的基本原理 卷积——提取特征 池化层(下采样)——数据降维,避免过拟合 全连接层——输出结果 CNN 有哪些实际应用? 总结 百度百科+维基百科 卷积层

    2024年02月11日
    浏览(54)
  • 大数据深度学习卷积神经网络CNN:CNN结构、训练与优化一文全解

    本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。

    2024年02月01日
    浏览(44)
  • 深度学习12. CNN经典网络 VGG16

    VGG(Visual Geometry Group)是一个视觉几何组在2014年提出的深度卷积神经网络架构。 VGG在2014年ImageNet图像分类竞赛亚军,定位竞赛冠军;VGG网络采用连续的小卷积核(3x3)和池化层构建深度神经网络,网络深度可以达到16层或19层,其中VGG16和VGG19最为著名。 VGG16和VGG19网络架构非

    2023年04月09日
    浏览(36)
  • 深度学习入门教学——卷积神经网络CNN

    1、应用领域 检测任务 分类与检索 超分辨率重构 2、卷积网络与传统网咯的区别 传统神经网络和卷积神经网络都是用来 提取特征 的。 神经网络: 可以将其看作是一个二维的。 卷积神经网络: 可以将其看作是一个三维的。  3、整体框架 该层主要是对原始图像数据进行预处

    2024年02月10日
    浏览(38)
  • 深度学习入门(三):卷积神经网络(CNN)

    给定一张图片,计算机需要模型判断图里的东西是什么? (car、truck、airplane、ship、horse) CONV:卷积计算层,线性乘积求和 RELU:激励层,激活函数 POOL:池化层,取区域平均或最大(MAX POOL) PC:全连接层 对CNN来说,它是一块一块进行对比的,“小块”称之为Features特征。

    2024年02月11日
    浏览(42)
  • 【深度学习_TensorFlow】卷积神经网络(CNN)

    这篇文章的行文思路如下: 先根据视频了解卷积和卷积神经网络的整体框架 接着了解卷积神经网络构建过程中的一些重要操作,包括内积、填充、池化。 然后介绍卷积层如何实现。 最后用卷积神经网络的开山之作(LeNet-5)来进行上手练习。 最近学习信号与系统的时候,了

    2024年02月07日
    浏览(50)
  • 【深度学习】最强算法之:卷积神经网络(CNN)

    小屌丝 :鱼哥, 看下这个流程图,我没看明白 小鱼 :啥流程图。 小屌丝 :你看,就是这个。 小鱼 :嗯,不错,不错。 小屌丝 :能不能给我讲一讲这个? 小鱼 :你要了解CNN ? 小屌丝 :CNN 是? 小鱼 :…你这… 深度学习知道吗? 小屌丝 :知道啊 小鱼 :你都知道深度

    2024年04月09日
    浏览(40)
  • 学习笔记:深度学习(3)——卷积神经网络(CNN)理论篇

    学习时间:2022.04.10~2022.04.12 CNN(Convolutional Neural Networks, ConvNets, 卷积神经网络)是神经网络的一种,是理解图像内容的最佳学习算法之一,并且在图像分割、分类、检测和检索相关任务中表现出色。 3.1.1 什么是CNN? CNN是一种带有卷积结构的前馈神经网络, 卷积结构 可以减少

    2024年02月03日
    浏览(91)
  • 深度学习入门——卷积神经网络CNN基本原理+实战

    ​ 卷积神经网络(Convolutional Neural Network,CNN)是深度学习技术中最基础的网络结构,模拟人脑工作,具备强大的特征学习能力。CNN结构主要由两部分组成:特征提取部分和分类部分color{blue}{特征提取部分和分类部分}特征提取部分和分类部分。特征提取部分网络将执行一系列

    2024年01月21日
    浏览(49)
  • 【深度学习】6-4 卷积神经网络 - CNN的实现

    CNN的实现 网络的构成是“Convolution - ReLU - Pooling -Affine - ReLU - Affine - Softmax”,我们将它实现为名为 SimpleConvNet 的类。 首先来看一下 SimpleConvNet的初始化( init ),取下面这些参数。 input_dim——输入数据的维度:(通道,高,长) conv_param——卷积层的超参数(字典)。字典的

    2024年02月10日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包