EfficientNet系列(1): EfficientNetV2网络详解

这篇具有很好参考价值的文章主要介绍了EfficientNet系列(1): EfficientNetV2网络详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

EfficicentNet网络简介

EfficientNet:Rethinking Model Scaling for Convolutional Neural Networks,这篇论文是Google在2019年发表的文章。

EfficientNet这篇论文,作者同时关于输入分辨率,网络深度,宽度对准确率的影响,在之前的文章中是单独增加图像分辨率或增加网络深度或单独增加网络的宽度,来试着提升网络的准确率。在EfficientNet这篇论文中,作者使用了网络搜索技术NAS去同时探索输入分辨率,网络深度、宽度的影响。

EfficientNet的效果究竟如何呢?
EfficientNet系列(1): EfficientNetV2网络详解
这幅图是原论文作者给出的关于Efficient以及当时主流的一系列分类网络的Top-1的准确率,我们发现EfficientNet不仅在参数数量上比很多主流模型要小以外,准确率明显也要更好

  • 论文中提到,本文提出的EfficientNet-B7在ImageNet top-1达到了当年最高的准确率84.3%,与之前准确率最高的GPipe相比,参数数量仅为其1/8.4,推理速度提升了6.1

网络对比(宽度、深度、分辨率)

EfficientNet系列(1): EfficientNetV2网络详解- 图a 传统的卷积神经网络

  • 图b,在图a的基础上单独增加了网络的宽度(宽度代表的是特征层的channel)
  • 图c,在图a的基础上单独增加了网络的深度,明显可以看到相对于图a,它的layers明显更多了,网络会变得更加深
  • 图d,在图a基准网络的基础上对图像的分辨率进行了增加,提升图像的分辨率我们得到的每个特征矩阵高和宽会相应的增加
  • 图e, 对网络同时增加网络的宽度、深度以及输入图像的分辨率
    EfficientNet系列(1): EfficientNetV2网络详解
  • 根据以往的经验,增加网络的深度depth能够得到更加丰富、复杂的特征并且能够很好的应用到其他任务中。但网络的深度过深会面临梯度消失,训练困难的问题
  • 增加网络的width能够获得更细粒度的特征并且也更容易训练,但对于width很大而且深度较浅的网络往往很难学习到更深层次的特征。
  • 增加输入网络的图像分辨率能够潜在得获得更高细粒度的特征模板,但对于非常高的输入分辨率,准确度的增益也会减少。并且大分辨率图像会增加计算量。

从上图可以看出,scale by width,scale by depth,scale by resolution,发现这三条虚线基本上在准确率达到80%以后基本上就饱和了不在增加了。对于红色的线,我们同时增加网络的宽度、深度、分辨率,我们发现它达到了80%的准确率后并没有出现饱和的现象,并且还可以继续增长上去。这就说明了我们同时增加网络的深度、宽度、分辨率的话,我们是可以得到一个更好的结果的.

EfficientNet系列(1): EfficientNetV2网络详解
并且当理论的计算量相同时,我们同时增加网络的深度、宽度、分辨率的话,网络的效果会更好。

EfficientNet-B0 Network

EfficientNet-B0网络,也是作者通过网络搜索技术得到的,它的详细网络参数如下表
EfficientNet系列(1): EfficientNetV2网络详解

EfficientNet-B0 网络结构
  • 我们发现在Efficientstage一共有1~9个stage。stage 1是一个3x3的卷积层。对于stage2~stage8我们能够发现,它是在重复堆叠MBConv,这里的MBConv就是MobienetConv,后续会讲到。Stage 9是由3部分构成:Conv 1x1PoolingFC`层。
  • 这里的分辨率(Resolution),对应的是输入每个Stage的高度和宽度
  • Channels,对应我们每个Stage输出特征矩阵的channel个数,
  • Layers: 将我们对应的Operator重复多少次,比如stage3对应的Layers2,就会对MBConv6重复两次
  • 这里的stride对应的Layers对应的第一层的stride,其他的步距都等于1的。

EfficientNet-B0 Network

MBConv 模块
EfficientNet系列(1): EfficientNetV2网络详解
论文中其实也说了,MBConv其实和MobileNet v3使用的Block是一样的。我们来简单看下在Efficient 中我们使用的MBConv它的结构。

  • 首先对我们的主分支而言,是一个1x1的卷积一般是用来升维的,然后通过BN以及Swish激活函数
  • 紧接着通过一个DW卷积,它的卷积核是k x k,k可能是3也可能是5,这里的步距可能是1也可能是2.
  • 紧接着将DW卷积的输出通过BNSwish激活函数之后,在通过一个SE模块。
  • 紧接着在通过一个1x1的卷积,这里的1x1卷积启动一个降维的作用,注意这里只有一个BN,没有swish激活函数。
  • 紧接着在通过一个dropout操作
  • 然后将我们输入特征矩阵,从我们捷径分支引过来,直接与我们主分支得到的输出特征矩阵进行相加得到我们对应的输出

这里需要注意几个点:

  • 第一个升维的卷积层,它的卷积核个数是输入特征矩阵channel的n倍,这里的n对应的是多少呢,就是我们Operator对应的MBCov对应的数字,就是我们的倍率因子n
    EfficientNet系列(1): EfficientNetV2网络详解
  • 对于MBConv最后一个降维的卷积层,它的卷积核个数等于多少呢,它就是对应我们上图表格中对应的Channels来进行设置的。这里Channels等于多少,我们这里1x1卷积核个数就等于多少。
  • 第2个注意点就是当MBConv1时,即此时n=1的时候,我们是不需要1x1的卷积层的,因为我们知道第一个1x1卷积主要起到升维作用,那么当n=1的时候相当于并没有升维。对应的就是表格中的Stage2中对应的operatorMBConv1,它这里的MBConv是没有1x1的卷积层的
  • 关于shortcut连接,仅当输入MBConv结构特征矩阵与输出的特征矩阵shape相同的时才存在

SE模块
EfficientNet系列(1): EfficientNetV2网络详解

  • 首先对输入特征矩阵的feature map的每一个channel进行平均池化操作
    ,然后在分别通过两个全连接层。
  • 注意的是第一个全连接层的激活函数是Swish激活函数,第二个全连接层的激活函数使sigmoid激活函数。
    -第一个全连接层的节点个数是输入该MBConv特征矩阵channels的1/4,第二个全连接层的节点个数等于feature_mapchannels个数,这里的feature_mapMBConvDW输出的特征矩阵。
    EfficientNet系列(1): EfficientNetV2网络详解

EfficientNet-B0~ EfficientNet-B7网络参数

EfficientNet系列(1): EfficientNetV2网络详解

  • EfficientNet-B0~ EfficientNet-B7网络的结构都是一样的,就是网络的input_size,width_coefficient,depth_coefficient等参数设置存在差异。
  • width_coefficient代表channel维度上的倍率因子,比如在EfficientNetB0中的Stage1的3x3卷积层所使用的卷积核个数是32,那么在B6中就是32 x 1.8=57.6接着取整到离它最近的8倍整数即56,其他stage同理。
  • depth_coefficient代表depth维度上的倍率因子(仅针对Stage2Stage8),比如在EfficientNetB0中Stage7的L=4,那么在B6中就是4 x 2.6 =10.4,接着向上取整即11
  • drop_connect_rate它对应的就是MBConv当中的dropout层的随机失活比例,注意并不是所有MBConv层的dropout都等于0.2.在源码实现中,将所有的MBConv结构中dropout层的随机失活比率从0一直慢慢增长到所给定的drop_connect_rate,
  • 最后一个dropout_rate对应的是EfficientNet最后全连接层之前对应的dropout失活比率

性能对比

EfficientNet系列(1): EfficientNetV2网络详解文章来源地址https://www.toymoban.com/news/detail-424792.html

  • EfficientNet-B0对比的是我们ResNet-50以及我们DenseNet-169,我们可以看到它的准确率是最高的,参数量是最少的,它的理论上的计算量是最低的。同样B1~B7都对一系列网络进行了对比
  • 不过在实际使用过程中,首先它的准确率确实是挺高的,然后它的参数个数确实也很少,这是毋庸置疑的。但是有个问题网络训练时非常占GPU的显存,因为在我们EfficientNet中像B4,B5,B6,B7这些模型,它的输入图片的分辨率非常大导致我们每一个层结构输出特征矩阵的高和宽都要相应的增加。所以对于我们显存的占用也会增加。
  • 而且对于速度直接对比Flops是不完全对的,真实情况下我们所关注的速度其实是在设备上的推理的速度;真实的推理速度和Flops其实不是直接相关的,它还有很多其他因素的影响,所以如果你能给出在某些设备上它的推理时间的话会更加有意义

到了这里,关于EfficientNet系列(1): EfficientNetV2网络详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 图像分类】【深度学习】【轻量级网络】【Pytorch版本】EfficientNet_V2模型算法详解

    EfficientNet_V2是由谷歌公司的Tan, Mingxing等人《EfficientNetV2: Smaller Models and Faster Training【 ICML-2021】》【论文地址】一文中提出的改进模型,在EfficientNet_V1的基础上,引入渐进式学习策略、自适应正则强度调整机制使得训练更快,进一步关注模型的推理速度与训练速度。 随着模型

    2024年01月25日
    浏览(50)
  • 简单有趣的轻量级网络 Efficientnet(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区(网络结构详解+详细注释代码+核心思想讲解)——pytorch实现

            这期博客我们来学习一下Efficientnet网络,属于NAS系列中最优秀的轻量级网络之一,通过NAS搜索的方式确定最佳的网络结构。之前的神经网络的宽度深度,输入图像的分辨率,是怎么获得的呢,说白了就是经验,研究人员通过无数的设计经验获得的,但是网络的发展不

    2024年04月26日
    浏览(43)
  • EfficientNet网络简介

    目录 1.1 EfficientNet网络概述      1.2EfficientNet 性能分析 1.3EfficientNet的基本原理公式 1.4MATLAB开发方法         在开发以卷积神经网络( CNN )为核心的机器学习模型时,我们通常会先使用固定的资源成本,构建最初的模型,然后增加更多资源(层数)扩展模型,获得更高的准

    2024年01月21日
    浏览(27)
  • YOLOv7升级换代:EfficientNet骨干网络助力更精准目标检测

    大家好,我是哪吒。 🏆往期回顾: 1、YOLOv7如何提高目标检测的速度和精度,基于模型结构提高目标检测速度 2、YOLOv7如何提高目标检测的速度和精度,基于优化算法提高目标检测速度 3、YOLOv7如何提高目标检测的速度和精度,基于模型结构、数据增强提高目标检测速度 4、

    2024年02月03日
    浏览(33)
  • 【RT-DETR有效改进】Google | EfficientNetV1一种超轻量又高效的网络 (附代码 + 添加教程)

    👑欢迎大家订阅本专栏,一起学习RT-DETR👑    本文给大家带来的改进机制是Google发布的EfficientNetV1主干网络,其主要思想是通过均衡地缩放网络的深度、宽度和分辨率,以提高卷积神经网络的性能。该主干使用一个复合系数来统一地缩放网络的深度、宽度和分辨率,实现更

    2024年01月22日
    浏览(46)
  • Python基于深度学习机器学习卷积神经网络实现垃圾分类垃圾识别系统(GoogLeNet,Resnet,DenseNet,MobileNet,EfficientNet,Shufflent)

    文章目录 1 前言+ 2 卷积神经网络(CNN)详解+ 2.1 CNN架构概述+ 2.1.1 卷积层+ 2.1.2 池化层+ 2.1.3 全连接层 2.2 CNN训练过程+ 2.3 CNN在垃圾图片分类中的应用 3 代码详解+ 3.1 导入必要的库+ 3.2 加载数据集+ 3.3 可视化随机样本+ 3.4 数据预处理与生成器+ 3.5 构建、编译和训练CNN模型+ 3.5.

    2024年02月04日
    浏览(48)
  • MobileNet系列(4):MobileNetv3网络详解

    当前很多轻量级网络会经常使用到 MobileNetv3 ,本文将讲解google继 MobileNetv2 之后提出的v3版本。 MobileNetv3论文 :Searching for MobileNetV3 根据MobileNetV3论文总结,网络存在以下3点需要大家注意的: 更新了Block(bneck) ,在v3版本中原论文称之为 bneck ,在v2版 倒残差结构 上进行了简单的

    2024年02月06日
    浏览(54)
  • 【Linux系列】vmware虚拟机网络配置详解

    原文地址 [1] 首发博客地址 [2] 系列文章地址 [3] vmware 为我们提供了三种网络工作模式,它们分别是:Bridged(桥接模式)、NAT(网络地址转换模式)、Host-Only(仅主机模式)。 打开 vmware 虚拟机,我们可以在选项栏的“编辑”下的“虚拟网络编辑器”中看到 VMnet0(桥接模式)

    2024年02月10日
    浏览(42)
  • 【计算机网络】—— 详解码元,传输速率的计算|网络奇缘系列|计算机网络

    🌈个人主页:  Aileen_0v0 🔥系列专栏:  一见倾心,再见倾城  ---  计算机网络~ 💫个人格言: \\\"没有罗马,那就自己创造罗马~\\\" 目录 码元  速率和波特 思考1   思考2  思考3 带宽(Bandwidth)  📝总结 码元 是指用一个 固定时长的信号波形 _(数字脉冲),代表不同离散数值的基本波

    2024年02月04日
    浏览(55)
  • MobileNet系列(2):MobileNet-V2 网络详解

    MobileNet-V2论文:Inverted Residuals and Linear Bottlenecks, MobileNet-V2网络是由google团队在2018年提出的,相比MobileNetV1网络, 准确率更高,模型更小 。 网络中的亮点 Inverted Residuals (倒残差结构) Linear Bottlenecks 普通的残差结构 Resnet 网络提供的残差结构,如下图: 首先对输入特征矩阵

    2024年02月05日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包