全局平均池化(Global average pooling, GAP)
与average pooling不同的是:
(1)average pooling
是可以根据设置的窗口大小进行下采样操作的,而global average pooling
相当于是average pooling
的一种特殊情况,它是以特征图的大小设置的窗口大小;
(2)average pooling
or max pooling
一般用于在卷积提取网络后形成全局特征的重要部件,后面一般要接
全连接层完成特征到标签映射关系的学习,而global average pooling
前面的特征图通道数应与输出的类别数相一致,后面是直接经过softmax函数得到最后的预测概率分布。
在Nework in Network论文(简称NIN)的3.2Global Average Pooling
中,有如下的叙述:
In this paper, we propose another strategy called global average pooling to replace the traditional fully connected layers in CNN. The idea is to generate one feature map for each corresponding category of the classification task in the last mlpconv layer. Instead of adding fully connected layers on top of the feature maps, we take the average of each feature map, and the resulting vector is fed directly into the softmax layer. One advantage of global average pooling over the fully connected layers is that it is more native to the convolution structure by enforcing correspondences between feature maps and categories. Thus the feature maps can be easily interpreted as categories confidence maps. Another advantage is that there is no parameter to optimize in the global average pooling thus overfitting is avoided at this layer. Futhermore, global average pooling sums out the spatial information, thus it is more robust to spatial translations of the input.
在本文中,我们提出了另一种称为全局平均池的策略,以取代CNN中传统的全连接层。其思想是在最后一个mlpconv层中为分类任务的每个对应类别生成一个特征映射。我们没有在特征图上添加完全连接的层,而是取每个特征图的平均值,得到的向量直接馈送到softmax层。全局平均池相对于全连接层的一个优势是,通过强制特征映射和类别之间的对应,它更适合卷积结构。因此,特征图可以很容易地解释为类别置信度图。另一个优点是在全局平均池中不需要优化参数,从而避免了该层的过拟合。此外,全局平均池对空间信息进行了汇总,因此对输入的空间转换具有更强的鲁棒性。文章来源:https://www.toymoban.com/news/detail-438826.html
下图是NIN论文中给出的网络结构图,如图,最后是直接通过GAP得到对应的类别输出的。文章来源地址https://www.toymoban.com/news/detail-438826.html
到了这里,关于全局平均池化(Global average pooling, GAP)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!