图注意力网络(GAT)

这篇具有很好参考价值的文章主要介绍了图注意力网络(GAT)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、图数据结构知识

图是指一系列相互连接的节点,且每个节点自己也具有一定的特征。如下图所示即一个典型的图结构。图注意力网络(GAT) 该图一共有五个结点,每个结点有自己的特征Fi.另一方面,为了描述图的结构特点,常用邻接矩阵A和度矩阵D.其中,对于一个N个结点的图来说,邻接矩阵A为一个大小为N*N的对称矩阵,若两个结点i,j直接有连接,则Aij=Aji=1,否则为0.度矩阵D大小同样,除对角线上,其余位置的值均为0,Dii的值为与结点i直接连接的结点的数目。实际处理中还存在一种常见的矩阵拉普拉斯矩阵L,L=D-A。

二、图注意力机制

图注意力网络的关键即是图注意力层,图注意力层的处理对象即为整张图的每个结点,如对于N个结点,每个结点特征维度为F的一张图,通过图注意力层得到的输出即为N*F‘,其中F’为输出层的特征维度。

h={h1,h2,h3,…hN}表示输入数据,其中hi是大小为F的向量。h‘={h’1,h’2,…h’N}表示输出,hi’为大小为F‘的向量。论文提出了图注意力层从输入计算每个结点的输出,入上图所示,与结点3相邻的结点有2,4,因此我们仅考虑这两个结点对于结点3输出的影响。为此提出了注意力系数eij来表示结点j对于结点i的影响。(注:eji !=eij,其表示结点j对于结点i的影响).由此为得到h’i,我们需要考虑与结点i相邻的所有结点对于结点i的注意力系数。因此我们得到如下的关键公式:图注意力网络(GAT)
其中:sigmod表示一个非线性函数,Ni表示与结点i相邻的所有结点组成的域,hj表示结点j的特征向量,W为一个大小为F‘×F的权重矩阵。图注意力网络(GAT)
再将eij的计算公式带入上式可得:
图注意力网络(GAT)其中,LeakyReLU为非线性激活函数:y =x, x>=0 y=ax x<0
II表示将左右两个矩阵连接在一起,Whi形状为F’×1,连接后得到一个大小为2F‘×1的矩阵。a为一个大小为2F’的权重向量,因此两者相乘得到一个实数,最后得到一个数即注意力系数。

三、多头注意力机制

与RNN类似,图注意力层也可引入多头注意力机制这一方法
其计算公式稍微有点变化图注意力网络(GAT)其中K表示k重注意力机制,Wk表示第k重的权重矩阵,其大小为为F‘/K ×F。这一过程可以有如下图所示:
图注意力网络(GAT)不同的颜色表示不同的k值所对应的注意力系数。

四、个人总结

GAT网络主要是基于对邻接结点的处理而提出的注意力系数这一概念,不用对整个图进行遍历,比较容易理解。文章来源地址https://www.toymoban.com/news/detail-408084.html

到了这里,关于图注意力网络(GAT)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • YOLOv5改进 | 一文汇总:如何在网络结构中添加注意力机制、C3、卷积、Neck、SPPF、检测头

    本篇文章的内容是在大家得到一个改进版本的C3一个新的注意力机制、或者一个新的卷积模块、或者是检测头的时候如何替换我们YOLOv5模型中的原有的模块,从而用你的模块去进行训练模型或者检测。因为最近开了一个专栏里面涉及到挺多改进的地方,不能每篇文章都去讲解

    2024年02月19日
    浏览(44)
  • 【故障分类】基于注意力机制的卷积神经网络结合双向长短记忆神经网络CNN-BiLSTM-attention实现数据分类附matlab代码

    ntion机制加权 4. 加权后的特征进行分类 本文旨在实现一个通用的数据分类模型,可应用于不同领域的数据分类任务。 设计一个CNN网络结构,提取输入数据的特征 将特征序列输入到BiLSTM网络,进行时序建模 在BiLSTM的输出上应用注意力机制,关注重要特征 最后将加权特征输入

    2024年03月11日
    浏览(69)
  • 机器学习笔记 - 什么是图注意力网络?

            顾名思义,图注意力网络是图神经网络和注意力层的组合。要理解图注意力网络,我们首先需要了解什么是注意力层和图神经网络。首先,我们将看一下对图神经网络和注意力层的基本理解,然后我们将重点介绍两者的结合。让我们看一下图神经网络。       

    2023年04月09日
    浏览(37)
  • 分类预测 | Matlab实现LSTM-Attention-Adaboost基于长短期记忆网络融合注意力机制的Adaboost数据分类预测/故障识别

    分类效果 基本描述 1.Matlab实现LSTM-Attention-Adaboost基于长短期记忆网络融合注意力机制的Adaboost数据分类预测/故障识别。 2.自带数据,多输入,单输出,多分类。图很多、混淆矩阵图、预测效果图等等 3.直接替换数据即可使用,保证程序可正常运行。运行环境MATLAB2023及以上。

    2024年01月24日
    浏览(53)
  • 神经网络多种注意力机制原理和代码讲解

    多种注意力表格: 大神参考仓库链接: 魔鬼面具 对应 name 就是目录,点击即可跳转到对应学习。 name need_chaneel paper SE (2017) True https://arxiv.org/abs/1709.01507 BAM (2018) True https://arxiv.org/pdf/1807.06514.pdf CBAM (2018) True https://openaccess.thecvf.com/content_ECCV_2018/papers/Sanghyun_Woo_Convolutional_Block_

    2024年02月06日
    浏览(80)
  • 基于注意力的时空图卷积网络交通流预测

    摘要: 交通流预测是交通领域研究和实践的一个重要课题。然而,由于交通流通常表现出高度非线性和复杂的模式,这是非常具有挑战性的。现有的交通流预测方法大多缺乏对交通数据动态时空相关性的建模能力,无法得到令人满意的预测结果。本文提出了一种新的基于注意

    2024年02月05日
    浏览(33)
  • [ 注意力机制 ] 经典网络模型1——SENet 详解与复现

    🤵 Author :Horizon Max ✨ 编程技巧篇 :各种操作小结 🎇 机器视觉篇 :会变魔术 OpenCV 💥 深度学习篇 :简单入门 PyTorch 🏆 神经网络篇 :经典网络模型 💻 算法篇 :再忙也别忘了 LeetCode Squeeze :挤压     Excitation :激励 ; Squeeze-and-Excitation Networks 简称 SENet ,由 Momenta 和

    2024年01月20日
    浏览(40)
  • 在网络中添加特征金字塔,和自注意力机制

    某\\\"D网络\\\"是用来进行睡眠微事件检测的深度学习模型。但是我发现该网络的性能并非十分完善;正如论文中所述的那样,在SSC、WSC睡眠数据集上对于纺锤波、K复合波等睡眠微事件的检测性能方面(包括precision、recall、F1-score)有待提高。 为此鄙人不才,希望能够改进该网络的结

    2024年02月09日
    浏览(37)
  • 用自己网络添加注意力机制后画出热力图

    不知道大家有没有像我这样的困惑,就是加了注意力机制到自己网络里面之后,算法性能提升不大,不知道自己添加的注意力有没有关注自己所希望关注的地方,于是就想验证自己的注意力是否有用,然后又不知道怎么验证它。 反正我被这个问题困惑了好久,经过几天CSDN的

    2024年02月07日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包