超图神经网络(HGNN)

这篇具有很好参考价值的文章主要介绍了超图神经网络(HGNN)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.超图基础概念

传统的图网络结构,两点之间就可以引入一条边链接;
超图神经网络,神经网络,人工智能
超图神经网络,神经网络,人工智能

但在某些特定的领域,一条边可能链接的不止两个点,我们便引入了超图
比如:同一个班级,一个班级可以连接很多个学生;一个IP下有很多个用户,我们可以用超边来表示这个班级或这个IP;
一个超图可以拥有任意数量的节点,如果所有超边都连接两个节点那么就退化为简单图;

2.多模态的超图构建

面对多模态的场景:可以做视觉连接文本连接社交连接,所以将这些放入到超图结构中去解决的时候会比简单图简单很多
超图神经网络,神经网络,人工智能

那么,多模态数据下如何构建超图如何利用算法去求得节点特征的呢?

超图神经网络,神经网络,人工智能
超图神经网络,神经网络,人工智能

g r o u p 1 group1 group1是一个模态的超图, g r o u p N group N groupN是另一个模态的图,将多个模态拼接到一起,构建多模态超图;
超图数据形式如上图:行是超边、列是节点 ;有连接则为1,否则为0;
W是每一个超边被赋予的权值,初始化W为一个单位阵,意味着所有超边的权重都是相同的,W可以根据模型去训练,也可以固定为单位阵;
超图神经网络,神经网络,人工智能
超图神经网络,神经网络,人工智能

2.1节点的度:

超图神经网络,神经网络,人工智能

2.2超边的度:

超图神经网络,神经网络,人工智能

2.3更新公式:

GCN的更新公式:
超图神经网络,神经网络,人工智能
超图的更新公式:
超图神经网络,神经网络,人工智能

D v D_v Dv是超边的度矩阵;
D e D_e De是顶点的度矩阵;
W W W是权重矩阵;
H H H是超图的邻接矩阵;
X ( l ) X^{(l)} X(l)是节点第L层的特征;
θ ( l ) \theta^{(l)} θ(l)是全连接层;(对 X ( l ) X^{(l)} X(l)进行特征转换)

举个实际的例子:

超图神经网络,神经网络,人工智能

第一步:因为 θ ( l ) \theta^{(l)} θ(l)是个可训练参数,先不去看 θ ( l ) \theta^{(l)} θ(l)
第二步: D v − 1 / 2 D_v^{-1/2} Dv1/2 D e − 1 D_e^{-1} De1 D v − 1 / 2 D_v^{-1/2} Dv1/2是归一化操作也可先不看他们;
第三步:构建超边特征: H T H^T HT X X X是将超边邻居节点都聚合到超边上(求和)
第四步:节点特征更新: H ∗ H* H H T H^T HT X X X
第五步:利用 D v − 1 / 2 D_v^{-1/2} Dv1/2 D e − 1 D_e^{-1} De1 D v − 1 / 2 D_v^{-1/2} Dv1/2完成归一化操作;
注:需要训练的参数,前部分的时候可以把他们看成固定的值
超图神经网络,神经网络,人工智能
GCN与HGNN虽然计算出来的值有一定的差别,但是他们本质上的思想是差不多的,GCN可以说是一种特殊的HGNN
超图神经网络,神经网络,人工智能

3.实验:

1.Cora引文数据集,超图结构与原始结构很相似,并没有加入更多的信息,所以效果提升的比较少;
超图神经网络,神经网络,人工智能
2.视觉分类任务:
本质上是一种无图结构,作者每次选择数据集的一个节点,利用其在所选特征空间中的10个最近邻生成一个包括改节点本身的超边;
超图神经网络,神经网络,人工智能
3.ModelNet40:

超图神经网络,神经网络,人工智能

4.总结

超图结构能够表达复杂的、高阶的数据之间的相关性,与图结构或无图结构的方法相比,能更好的表示底层数据之间的关系。此外,当多模态数据\特征可用时,HGNN具有通过其灵活的超边将这些多模态信息结合在同一结构中的优势;文章来源地址https://www.toymoban.com/news/detail-824832.html

到了这里,关于超图神经网络(HGNN)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能神经网络概念股,神经网络芯片概念股

    人工智能包含硬件智能、软件智能和其他。 硬件智能包括:汉王科技、康力电梯、慈星股份、东方网力、高新兴、紫光股份。 软件智能包括:金自天正、科大讯飞。 其他类包括:中科曙光、京山轻机。 谷歌人工智能写作项目:小发猫 1、苏州科达:苏州科达科技股份有限公

    2024年02月07日
    浏览(54)
  • 【复习】人工智能 第 8 章 人工神经网络及其应用

    因为计算牵扯到导数,所以这章难的部分不会考太难。 人工神经网络是对人脑或生物神经网络若干基本特性的抽象和模拟。 深度学习是神经网络的发展。 人工智能曾经历过很长一段时间的停滞不前。 浩瀚的宇宙中,也许只有包含数千忆颗星球的银河系的复杂性能够与大脑相

    2024年01月19日
    浏览(54)
  • 人工智能之卷积神经网络(CNN)

    前言:今天我们重点探讨一下卷积神经网络(CNN)算法。 _ 20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络CNN(Convolutional Neural Networks)。 1980年,K.Fukushima提

    2024年02月20日
    浏览(52)
  • 神经网络与人工智能:未来的前沿

    人工智能(Artificial Intelligence, AI)是一门研究如何让机器具有智能行为的科学。在过去的几十年里,人工智能研究主要集中在规则-基于的系统、知识-基于的系统以及黑盒模型。然而,在过去的几年里,一种新的人工智能技术已经吸引了广泛的关注:神经网络。神经网络是一种模

    2024年02月21日
    浏览(64)
  • 【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

    Pre-training + Fine-tuning Pre-training(预训练) : 监督逐层训练是多隐层网络训练的有效手段, 每次训练一层隐层结点, 训练时将上一层隐层结点的输出作为输入, 而本层隐结点的输出作为下一层隐结点的输入, 这称为”预训练”. Fine-tuning(微调) : 在预训练全部完成后, 再对整个网络进行

    2024年02月10日
    浏览(48)
  • 人工智能:CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的知识梳理

    卷积神经网络(CNN),也被称为ConvNets或Convolutional Neural Networks,是一种深度学习神经网络架构,主要用于处理和分析具有网格状结构的数据,特别是图像和视频数据。CNN 在计算机视觉任务中表现出色,因为它们能够有效地捕获和识别图像中的特征,具有平移不变性(transla

    2024年02月05日
    浏览(68)
  • 【人工智能Ⅰ】实验9:BP神经网络

    实验9 BP神经网络 一、实验目的 1:掌握BP神经网络的原理。 2:了解BP神经网络的结构,以及前向传播和反向传播的过程。 3:学会利用BP神经网络建立训练模型,并对模型进行评估。即学习如何调用Sklearn中的BP神经网络。 4:学会使用BP神经网络做预测。 5:通过截图和模型评

    2024年02月02日
    浏览(68)
  • 人工智能卷积神经网络,CNN,梯度下降

    CNN,是针对图像领域提出的神经网络。 得出的结论: 神经元存在局部感受区域,也称 感受野 细胞对角度有选择性 如细胞对垂直光条响应最强 细胞对运动方向有选择性 1.视觉系统是分层,分级处理的。从低到高堆叠使用卷积和池化。 2.神经系统是存在局部感受区域的。 第一

    2024年02月01日
    浏览(57)
  • 深入了解神经网络:构建人工智能的基石

    目录 引言: 第一部分:神经元 - 生物的灵感 第二部分:人工神经元 - 数学的力量 第三部分:神经网络 - 层层堆叠 第四部分:训练神经网络 - 损失函数和反向传播算法 结论: 神经网络是一种受到生物神经系统启发的人工智能模型,它重现了大脑中神经元之间相互连接的方式

    2024年04月15日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包