大白话分析注意力机制和空间和通道注意力机制

这篇具有很好参考价值的文章主要介绍了大白话分析注意力机制和空间和通道注意力机制。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习小白,个人理解,有错误请友友们纠正QAQ

注意力机制是什么?

官方解释:注意力机制(Attention Mechanism)源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。上述机制通常被称为注意力机制。

大白话怎么理解:

假设你正在准备一顿晚餐,需要用到多种食材和调料。你的厨房里有各种各样的物品,包括锅碗瓢盆、食材、调料等。在这个场景下,你的注意力机制是如何工作的呢?

首先,你会根据晚餐的菜谱,将注意力集中在需要使用的食材和调料上。你会忽略掉那些与晚餐无关的物品,比如已经用过的餐具或者未开封的食材。

接着,当你开始烹饪时,你会专注于当前正在处理的食材或调料。例如,当你正在切洋葱时,你的注意力会完全集中在洋葱上,而忽略掉其他正在厨房里的物品或声音。

这种注意力的集中和选择性的忽略,就是注意力机制在起作用。它帮助你在处理复杂任务时,能够更有效地利用有限的资源,即你的精力。

注意力机制分类?

注意力一般分为两种:一种是自上而下的有意识的注意力,称为聚焦式(focus)注意力。聚焦式注意力是指有预定目的、依赖任务的、主动有意识地聚焦于某一对象的注意力;另一种是自下而上的无意识的注意力,称为基于显著性(saliency-based)的注意力。基于显著性的注意力是由外界刺激驱动的注意,不需要主动干预,也和任务无关。

大白话怎么理解?


聚焦式注意力就像拿着一个放大镜在寻找东西。我有一个明确的目的,比如找一颗特定的宝石,所以我会主动、有意识地调整放大镜的焦距,把焦点对准可能藏有宝石的地方,忽略掉其他无关的区域。这就是聚焦式注意力的特点它有预定目的,有依赖任务还会主动聚焦。

显著性的注意力则更像是我走进一个花园。我的目光会不由自主地被那些颜色鲜艳、形状奇特的花朵吸引,而不需要我主动去寻找或干预。这就是显著性注意力的特点:它是由外界刺激驱动,它不需要我主观意识主动干预,与任务无关。

注意力机制思想是什么?

注意力的思想,类似于寻址。给定 Query,去 Source 中计算 Query和不同 Key 的相关性,即计算 Source 中不同 Value 值的权重系数;Value 的加权平均结果可以作为注意力值。

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

图1

 大白话怎么理解?

输入的Query值假设是我想看的电视剧的一个片段比如说甄嬛传熹妃回宫的这个剧情,电视剧它很长它有很多集,我不知道它在具体哪一集哪一分钟,我不想从头到尾的看完。我可以像上图1一样给它划key1和key2,key1,key2有点像我们看电视剧那个进度条的每一个间断点的剧情梗概,就会简单介绍那段时间里发生了什么(图2圈起来的部分)

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

                                                                    图2

value1和value2就是不同时间段里的对应的剧情的全部的内容,我想找到我想看的熹妃回宫剧情怎么找到呢?是不是可以输入Query值(熹妃回宫剧情)对应上每个key的剧情梗概,我去分析他们相似度就可以知道哪一个大段的剧情里面可能有熹妃回宫这个剧情。然后我就给他们分配不同的关注度,这个在深度学习里面应该是权重。然后我根据关注度(权重)去对每个片端的所有剧情(就是不同的value1value2进行处理)比如说一个片段它非常有可能是我想看的剧情,那我对他关注度就大一点我开0.5倍速慢慢看,然后不是我想看的剧情我就忽略,我开倍速或者直接拉进度条。

什么是通道注意力机制?

通道注意力机制的代表模型是:压缩和激励网络(Squeeze-and-Excitation Networks,SENet)。SENet 分为压缩和激励两个部分,其中压缩部分的目的是对全局空间信息进行压缩,然后在通道维度进行特征学习,形成各个通对道的重要性,最后通过激励部分对各个通道进行分配不同权重的。

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

上图是SE模块的结构, 在压缩部分,输入的元素特征图的维度是 H×W×C,H、W 和 C 分别代表高度、宽度和通道数。压缩部分的功能是将维数从 H×W×C 压缩至1×1×C,即把 H×W 压缩为 1×1 维,这个过程由全局平均池化实现。在激励部分,需要将压缩部分得到的 1×1×C 的维度融入全连接层,预测各个通道的重要程度,然后再激励到前面特征图对应通道上进行操作。采用简单的门控机制与Sigmoid 激活函数。

大白话怎么理解?

想象一下你正在拍摄一张照片,并且需要后期调色来增强画面的视觉效果。在这个过程中,每个颜色通道(如红、绿、蓝等)都扮演着重要的角色,但它们对画面的贡献可能并不相同。

SENet的压缩部分就像是一个全局的调色师观察员。它会对整个画面进行快速扫描,压缩全局空间信息,得到一个关于各个颜色通道的整体印象。这个观察员并不关注具体的像素细节,而是关注整体的颜色分布和强度。

接下来,压缩后的信息会进入激励部分,这就像是调色师的工作室。在这个工作室里,调色师会根据观察到的全局信息,学习各个颜色通道的重要性。他们会判断哪些颜色通道对画面更为重要,哪些可能相对次要。

最后,调色师会根据学习到的通道重要性,对各个颜色通道进行权重的分配。重要的通道会得到更多的强调,而次要的通道可能会被适当减弱。这样,经过SENet处理的画面,在色彩表现上会更加和谐、突出。

鼠鼠我再举个生活栗子QwQ,我在学校里,班级里有H行W列的座位,每个座位上坐着一个学生(代表特征图的每个像素点),每个学生都有一个科目(代表不同的通道C)。现在,老师想要知道每个科目(通道)在整个班级中的重要性。

压缩部分(全局平均池化):投票
  1. 全局平均池化:在这个场景中,老师决定让每个学生(每个像素点)为他们所在的科目(通道)投票。投票的方式是,每个学生评估他们在该科目上的表现,并给出一个分数。最后,老师会计算每个科目(通道)的平均分。

  2. 从H×W×C到1×1×C:老师收集了所有的投票结果,并整理成一个列表,其中每个科目的平均分代表该科目的“重要性”或“强度”。这个列表的维度就是1×1×C,其中C是科目的数量(通道数)。

激励部分:决策
  1. 全连接层:老师拿到这个列表后,想要更深入地了解每个科目的重要性。于是,老师使用了一个“全连接层”(或称为“决策层”),这实际上是一个复杂的分析过程,它考虑了科目之间的相互影响。

  2. 预测通道重要程度:通过这个全连接层,老师预测了每个科目(通道)的重要程度。像是老师根据所有学生的投票结果和其他因素,为每个科目(通道)打了一个分数。

  3. Sigmoid激活函数:老师使用了一个叫做“Sigmoid”的激活函数来转换这些分数。这个函数的作用是将分数转换成一个介于0和1之间的值,这样老师就能更容易地理解每个科目的相对重要性。

  4. 激励操作:最后,老师根据这些重要性分数来调整每个科目(通道)的教学方式。对于得分较高的科目,老师可能会给予更多的关注;而对于得分较低的科目,老师可能会减少一些教学资源。这就像是“激励”操作,根据预测的重要性来调整不同通道的特征图。

 什么是空间注意力机制?

空间注意力机制的代表模型是:空间变换神经网络(Spatial Transformer Networks,STN),STN 能够对各种形变数据在空间中进行转换并自动捕获重要区域特征。它能够保证图像在经过裁剪、平移或者旋转等操作后,依然可以获得和操作前的原始图像相同的结果。

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

大白话怎么理解?

假设我正在拍摄一个打篮球的帅哥照片emm,但摄像机的角度或位置并不总是理想的,可能会被其他物体遮挡,或者画面过于倾斜。STN就像是一个智能的摄像师助手,它能够实时观察画面的内容,并自动检测重要区域(如球员)的特征。当检测到画面存在问题时,比如球员被遮挡或画面倾斜,STN会指导摄像机进行相应的空间变换。它可能会告诉摄像机稍微移动一下位置,以便更好地捕捉球员的动作;或者调整摄像机的角度,让画面变得更加稳定和平正。经过STN处理后的画面,即使经历了裁剪、平移或旋转等操作,依然能够保持对重要区域的准确捕捉,确保我能够清晰地看到比赛的关键瞬间(帅哥投三分球瞬间www)。

什么是混合注意力机制?

混合注意力机制是通道注意力和空间注意力通过串联、或者并联的方式进行组合。混合注意力机制的代表模型是:卷积注意力模块(Convolutional Block Attention Module,CBAM),它包括通道注意力模块CAM、和空间注意力模块SAM。CBAM的模型结构如下,它对输入的特征图,首先进行通道注意力模块处理;得到的结果,再经过空间注意力模块处理,最后得到调整后特征。

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

通道注意力模块CAM

CAM的输入是特征图,维度设为HxWxC;其中H是指特征图的高度,W是指宽度,C是指通道数。它的思路流程是:首先对输入的特征图,进行全局池化和平均池化;(在空间维度进行池化,压缩空间尺寸;便于后面学习通道的特征)然后将得到全局和评价池化的结果,送入到多层感知机中MLP学习;(基于MLP学习通道维度的特征,和各个通道的重要性)最后将MLP输出结果,进行“加”操作,接着经过Sigmoid函数的映射处理,得到最终的“通道注意力值”。

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

大白话怎么理解这个过程?

我们将特征图想象成学校里的学生,每个学生都有自己的学科成绩(通道),而辅导员老师则需要评估每个学科(通道)的重要性。(大家应该都弄过课设吧类似于一个教学评估系统www)

第一步:全局和平均池化
全局池化:老师想要了解每个学生在所有学科上的整体表现。因此,她收集每个学生的所有学科成绩,并计算每个学生的平均分。这样,老师就能得到一个关于每个学生整体学业水平。

平均池化:除了全局池化,老师可能还想要了解每个学科内所有学生的平均表现。这样,她就能知道哪些学科普遍表现较好,哪些学科需要更多的关注。

第二步:多层感知机(MLP)
老师拿到这些成绩数据后,不会直接做出判断。她会将这些数据输入到一个复杂的分析系统(多层感知机MLP)中。这个系统会考虑学生之间的个体差异、学科之间的相互影响(比如高数没学好概率论也会被影响hhh)以及学校的整体教育策略,来预测每个学科的重要性。

第三步:“加”操作和Sigmoid函数
“加”操作:MLP的输出可能包含多个与学科相关的特征或评分。这些特征或评分首先会经过一个“加”操作,这就像是老师综合考虑各种因素,对每个学科进行初步评估。

Sigmoid函数:接下来,这些初步评估的分数会通过Sigmoid函数进行转换。Sigmoid函数的作用是将任何实数映射到0和1之间,这样老师就能得到一个直观的、标准化的学科重要性评分。这些评分表示每个学科在学校教育中的相对重要程度。

第四步:通道注意力值
最后,这些学科注意力值会被用来指导教学资源的分配和教学方法的调整。对于得分较高的学科,老师可能会给予更多的关注和优质的教学资源;而对于得分较低的学科,老师可能会采取一些针对性的教学策略来提高学生的表现。

空间注意力模块SAM

SAM的输入是CAM输出的特征图。它的思路流程是:首先对输入的特征图,进行全局池化和平均池化;(在通道维度进行池化,压缩通道大小;便于后面学习空间的特征)然后将全局池化和平均池化的结果,按照通道拼接;得到特征图维度是HxWx2,最后对拼接的结果,进行卷积操作,得到特征图维度是HxWx1;接着通过激活函数处理。

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

大白话怎么理解?

比如我比较爱看帅哥emm我想要拍摄篮球场上的帅哥们打篮球的精彩瞬间,捕捉到他们在空间中的动态和重要性,这就好比是SAM(空间注意力模块)在特征图上的工作。

第一步:挑选关键照片和平均表现
  1. 挑选关键照片:首先,我会从整场篮球比赛的照片中挑选出一些关键瞬间,比如球员的精彩三分球、防守、团队配合等。这就像是对CAM输出的特征图进行全局池化,从众多特征中挑选出最重要的几个。

  2. 平均表现:除了关键瞬间,还会考虑整场比赛中球员的平均表现,比如某个球员在整场比赛中都表现出色。这就像是对特征图进行平均池化,了解每个特征在空间上的普遍强弱。

第二步:整合照片和信息

接下来,会把挑选出的关键照片和平均表现整合在一起。可以把这些照片按照一定的顺序或者重要性进行排列,形成一个初步的合成图。这就像是将全局池化和平均池化的结果按照通道拼接在一起,形成一个新的特征图。

第三步:强调关键元素

在有了初步的合成图之后,需要突出显示那些最重要的元素。可以调整图片的大小、位置、透明度等,以便让关键瞬间更加突出(比如说我给投三分球的帅哥来个特写镜头QAQ)这就像是对拼接后的特征图进行卷积操作,学习不同特征在空间上的相关性,并强调出关键的位置。

第四步:最终处理和展示

我通过相机的设置和后期处理,将这些关键元素突出显示出来。调整焦距等参数,这就像是通过激活函数处理得到的空间注意力值,用于强调关键位置并调整模型的输出。

混合注意力机制综合应用

这里举一下我在我们学校拍到的小猫为例hhh

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

在这张图里我想要识别这个猫猫,但是这个背景花花绿绿的。我该怎么办捏()

我可以用空间注意力机制帮助我定位猫可能出现的区域(类似于我给猫一个特写镜头),而通道注意力机制则帮助我选择性地关注与猫最相关的颜色或特征通道。(类似于我给猫加个滤镜让猫颜色更加突出)。具体流程过程如下图

大白话分析注意力机制和空间和通道注意力机制,深度学习,注意力机制,深度学习,计算机视觉

参考博客:

空间注意力模块与通道注意力模块实现:

【Transformer系列(2)】注意力机制、自注意力机制、多头注意力机制、通道注意力机制、空间注意力机制超详细讲解:文章来源地址https://www.toymoban.com/news/detail-854488.html

到了这里,关于大白话分析注意力机制和空间和通道注意力机制的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大白话聊聊“深度学习”和“大模型”

    1950年图灵发表论文《计算机器与智能》( Computing Machinery and Intelligence),提出了“机器智能”(Machine Intelligent)的概念,并且提出了著名的“图灵测试”的方法来判断机器是否有智能。 1956年,达特茅斯会议,“人工智能”(Artificial Intelligent)概念被首次提出,人工智能作

    2024年02月02日
    浏览(46)
  • 用大白话举例子讲明白云计算

    前几天王坚院士在2023云栖大会上发表了关于云计算的演讲,听得我是热血沸腾,王院士称AI和云计算的结合是“云计算的第三次浪潮”,对此我深表认同。但是身边的很多朋友还不知道云计算是什么意思,有些人还认为百度云和百度云盘是一个东西,下面我用大白话举例说明

    2024年02月04日
    浏览(40)
  • Lighting Network(闪电网络)大白话解析

    通道(Channel),通过在主网宣布通道建立,而后交易双方转至链下交易,把多次交易在链下完成,不占用主网资源,交易完成后在主网广播最终交易结果,无需更改主网机制即可实现吞吐量的提高。 “通道”是一个逻辑上的概念,实际使用过程中并没有“通道”,即使在数据传

    2024年02月04日
    浏览(34)
  • 用大白话举例子讲明白区块链

    什么是区块链?网上这么说: 区块链是一种分布式数据库技术,它以块的形式记录和存储交易数据,并使用密码学算法保证数据的安全性和不可篡改性。每个块都包含了前一个块的哈希值和自身的交易数据,形成了一个不断增长的链条。 区块链的特点包括: 分布式:区块链

    2024年02月04日
    浏览(43)
  • 设计模式大白话——适配器模式

    ​ 适配器其实非常好理解,放到生活中来,我们身边处处都有这样的例子,最常见的是用的比较多的各种转接线(如:USB 转 Type-C),有了这个“适配器”,我们就能够将电脑和手机等设备相进行连接,而不需要改动电脑/手机的原有接口。 ​ 回到编程的世界中,假设我们的

    2024年02月10日
    浏览(33)
  • 大白话理解-微信小程序获取授权

    微信用户授权,才可以操作微信官方的某些接口。 简单来说就是:微信定义了很多接口,然后他们认为有一部分是涉及到用户使用安全的,所以把这一部分划分了出来,然后这一部分按照功能来拆开各种范围。于是有了scope列表的东西,scope翻译为中文是范围的意思。(定位属于

    2024年02月02日
    浏览(29)
  • 别样的git学习--大白话学git

    希望用更加口语化的语言向大家讲述git 的魅力 1、Git-stash (贮存) 想象一下,你正在写一封重要的邮件,但突然你的老板告诉你需要立即处理另一个紧急任务。你还没完成邮件,不想丢失已写的内容,但你也需要一个干净的工作空间来处理新的任务。在这种情况下,Git 的

    2024年01月24日
    浏览(36)
  • 大白话说说Docker容器默认网络模型工作原理

    Docker的默认网络模型 —— 桥接模式(Bridge) 当你不做任何特殊设置时,Docker会使用一种叫做“桥接模式”的网络设置。这就像是给你的容器小房子安装了一个虚拟的桥接网络。这座桥连接着容器和你的电脑(宿主机),还能与外界通信。 虚拟网络桥 :想象一下,在你的电

    2024年02月21日
    浏览(32)
  • 用大白话来讲讲多线程的知识架构

    感觉多线程的知识又多又杂,自从接触java,就在一遍一遍捋脉络和深入学习。现在将这次的学习成果展示如下。 什么是多线程? 操作系统运行一个程序,就是一个线程。同时运行多个程序,就是多线程。即在同一时间,并行做多件事。 “并行”是相对于我们这些用户来说的

    2024年02月11日
    浏览(34)
  • 【Transformer系列(2)】注意力机制、自注意力机制、多头注意力机制、通道注意力机制、空间注意力机制超详细讲解

    注意力机制一直是一个比较热的话题,其实在很早之前就提出了,我们在学习图像分类时在SENet就见到过(直通车:经典神经网络论文超详细解读(七)——SENet(注意力机制)学习笔记(翻译+精读+代码复现))自从谷歌发表了《Attention Is All You Need》这篇论文后,注意力

    2024年02月06日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包