图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

这篇具有很好参考价值的文章主要介绍了图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

下面所有博客是个人对EEG脑电的探索,项目代码是早期版本不完整,需要完整项目代码和资料请私聊。


数据集
1、脑电项目探索和实现(EEG) (上):研究数据集选取和介绍SEED
相关论文阅读分析:
1、EEG-SEED数据集作者的—基线论文阅读和分析
2、图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》
3、EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》
4、论文阅读和分析:Masked Label Prediction: Unified Message Passing Model for Semi-Supervised Classification
5、论文阅读和分析:《DeepGCNs: Can GCNs Go as Deep as CNNs?》
6、论文阅读和分析: “How Attentive are Graph Attention Networks?”
7、论文阅读和分析:Simplifying Graph Convolutional Networks

8、论文阅读和分析:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
9、图神经网络汇总和总结
相关实验和代码实现:
1、用于图神经网络的脑电数据处理实现_图神经网络 脑电
2、使用GCN训练和测试EEG的公开SEED数据集
3、使用GAT训练和测试EEG公开的SEED数据集
4、使用SGC训练和测试SEED数据集
5、使用Transformer训练和测试EEG的公开SEED数据集_eeg transformer
6、使用RGNN训练和测试EEG公开的SEED数据集
辅助学习资料:
1、官网三个简单Graph示例说明三种层次的应用_graph 简单示例
2、PPI数据集示例项目学习图神经网络
3、geometric库的数据处理详解
4、NetworkX的dicts of dicts以及解决Seven Bridges of Königsberg问题
5、geometric源码阅读和分析:MessagePassin类详解和使用
6、cora数据集示例项目学习图神经网络
7、Graph 聚合
8、QM9数据集示例项目学习图神经网络
9、处理图的开源库

摘要:

脑电图(EEG)通过电极测量大脑不同区域的神经元活动。现有的许多基于EEG的情绪识别研究并没有充分利用EEG通道的拓扑结构。在本文中,提出了一种正则化图神经网络(RGNN)用于基于脑电图的情绪识别。RGNN考虑了不同脑区域之间的生物拓扑结构,以捕捉不同脑电信号通道之间的局部和全局关系。具体来说,通过图神经网络中的邻接矩阵来建模脑电图信号的通道间关系,其中邻接矩阵的连接和稀疏性受到人类大脑组织的神经科学理论的启发。此外,提出了两个正则子,即节点域对抗训练(NodeDAT)和情绪感知分布学习(EmotionDL),分别更好地处理跨受试者EEG变化和噪声标签。在两个公共数据集(SEED和SEED- iv)上进行的大量实验表明,在大多数实验环境中,的模型比最先进的模型具有更好的性能。此外,消融实验表明,所提出的邻接矩阵和两个正则子对的RGNN模型的性能贡献了一致和显著的增益。最后,对神经元活动的研究揭示了基于EEG的情绪识别的重要脑区和通道间关系。

当前EEG存在的问题:

现有的大多数基于EEG的情绪识别方法都没有解决以下三个问题:

1)无法有效利用EEG通道的拓扑结构来学习更具鉴别性的EEG表征;

2)脑电信号在不同受试者之间存在显著差异,这阻碍了训练后的分类器在与受试者无关的分类环境下的泛化;

3)参与者在观看引发情绪的刺激时,可能并不总是产生预期的情绪。因此,采集到的EEG数据中的情绪标签可能存在噪声,与实际诱发的情绪不一致。

主要贡献:

1)提出了一种基于EEG信号的正则化图神经网络(RGNN)模型捕捉了局部和全局的通道间关系来识别情绪。

2)提出了两个正则器:节点域对抗训练(NodeDAT)和情绪感知分布学习(EmotionDL),分别提高了的模型对跨受试者变化和噪声标签的鲁棒性。

3)在两个公共脑电图数据集,即SEED[7]和SEED- iv[24]上,在受试者依赖和受试者独立分类设置下进行了广泛的实验。实验结果证明了该模型和正则子的有效性。此外,的RGNN模型在大多数实验环境中比最先进的模型获得了优越的性能。

4)研究了情绪神经元的活动,结果表明,前额叶、顶叶和枕叶区域可能是情绪识别的信息最丰富的区域。此外,左右脑之间的整体通道间关系也很重要,(FP1, AF3), (F6, F8)和(FP2, AF4)之间的局部通道间关系也可能提供有用的信息。

EEG数据构建图模型的方法:

在本节中,介绍了的正则化图神经网络(RGNN),特别是生物学启发的邻接矩阵,RGNN的动态,以及两个正则化子,即节点域对抗训练(NodeDAT)和情绪感知分布学习(EmotionDL)。

RGNN中的邻接矩阵 A ∈ R n × n A∈R^{n×n} ARn×n表示脑电通道的拓扑结构,是图表示学习的必要条件,其中n表示脑电信号中的通道数。每个值 A i j A_{ij} Aij都是可学习的,表示通道i和j之间的连接权值。注意A包含自循环。为了减少过拟合,将A建模为一个对称矩阵,只使用 n ( n + 1 ) / 2 n(n+1)/2 n(n+1)/2个参数而不是 n 2 n^2 n2个。Salvador et al.[55]观察到,大脑区域之间的连接强度衰减为物理距离的平方反比函数。因此,在邻接矩阵中初始化局部通道间关系,如下所示:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

其中 d i j , i , j = 1 , 2 , … , n d_{ij}, i, j = 1,2,…, n dij,i,j=1,2n为通道i和通道j之间的物理距离,由记录设备数据表中获得的通道i和通道j的三维坐标计算得出,δ > 0为校准常数。Achard和Bullmore[56]观察到,稀疏的fMRI网络占所有可能连接的20%左右,通常能最大限度地提高网络拓扑的效率。因此,选择δ = 5,使得A中大约20%的值是不可忽略的。根据经验,将值大于0.1的值视为不可忽略的连接。

Bullmore和Sporns[19]认为,大脑组织是由最小化神经路径成本和网络运行成本之间的经济权衡所形成的。局部通道间连接有利于最小化神经路径成本,如(9)所示。然而,某些全局通道间连接有利于最小化网络运行成本,以实现整个网络的高效信息传输。为此,在邻接矩阵中增加了几个全局连接来提高网络效率。全局连接取决于实验中所采用的特定电极位置。图2描述了SEED[7]和SEED- iv[24]的全局连接。全局通道的选择得到了先前研究的支持,这些研究表明,左右半球之间神经元活动的不对称性在价态和唤醒预测方面提供了信息。为了利用差分不对称信息,将A中的全局通道间关系初始化为[−1,0],如下所示:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式中(i, j)表示全局通道对的通道对:(FP1, FP2), (AF3, AF4), (F5, F6), (FC5, FC6), (C5, C6), (CP5, CP6), (P5, P6), (PO5, PO6)和(O1, O2)。请注意,选择这些通道对是因为1)它们与邻近的大量节点相连,这最大限度地提高了EEG不对称的影响;2)它们的经验表现略好于其他通道对(见章节7.1)。在(9)和(10)中得到的邻接矩阵A旨在表示既结合了局部结构连通性又结合了与情绪相关的全局功能连通性的大脑网络。

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

实验和结论:

1、RGNN算法和其他算法

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

2、不同的图初始化方式、对称邻接矩阵、全局连接方式
图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

correlation-based 和coherence-based 由SEED数据集计算得到,不同通道的相关性邻接矩阵和一致性邻接矩阵;

算法流程

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

算法流程如图所示,算法中设计的公式如下:

计算对角度矩阵:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式(3)中,D为A的对角度矩阵,即 D i i = ∑ j A i j D_{ii}=\sum_j A_{ij} Dii=jAij。归一化邻接矩阵 D − 1 2 A D − 1 2 D^{-\frac{1}{2}} AD^{-\frac{1}{2}} D21AD21可以防止H变得过大。

计算归一化邻接矩阵S:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式(5)中, S = D − 1 2 a n d W = W 0 W 1 . . . W L − 1 S = D^{-\frac{1}{2}} and W = W^0W^1 ...W^{L−1} S=D21andW=W0W1...WL1 .

计算KL loss:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式(17) p ( Y ∣ X i , θ ) p(Y|X_i,θ) p(YXi,θ)denotes the output probability distribution computed via (12).

计算概率分布:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式(12)中 S ∈ R n × n , W ∈ R d × d 1 S∈R^{n×n}, W∈R^{d×d^1} SRn×n,WRd×d1和L遵循(5)中的定义, σ ( x ) = m a x ( 0 , x ) σ(x) = max(0, x) σ(x)=max(0,x)表示非线性变换, W O ∈ R d 1 × C W^O∈R^{d^1×C} WORd1×C表示输出权重矩阵,pool(·)表示图上所有节点的和的池化(sum pooling)。

计算域损失:

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式(13)其中 θ D θ_D θD表示域分类器的参数,0和1分别表示源域和目标域。
域分类器学会将源数据分类为0,将目标数据分类为1。第i个样本第j个节点的域概率pj(·)计算为

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

式(14) Z i j { S , T } Z^{\{S,T\}}_{ij} Zij{S,T}denotes the jth node representation in Z i { S , T } Z^{\{S,T\}}_{i} Zi{S,T}, and W D ∈ R d 1 × 2 W^D ∈ R^{d^1 ×2} WDRd1×2 denotes the matrix parameter in the domain classifier, i.e., θ D θ_D θD.

图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

参考文献:

[1]EEG-Based Emotion Recognition Using Regularized Graph Neural Networks | IEEE Journals & Magazine | IEEE Xplore
[2]GitHub - zhongpeixiang/RGNN: The model for the paper “EEG-Based Emotion Recognition Using Regularized Graph Neural Networks”
[3]图神经网络之神器——PyTorch Geometric 上手 & 实战 - 知乎 (zhihu.com)文章来源地址https://www.toymoban.com/news/detail-488741.html

到了这里,关于图神经网络EEG论文阅读和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [自注意力神经网络]Segment Anything(SAM)论文阅读

    论文地址 https://arxiv.org/abs/2304.02643 源码地址 https://github.com/facebookresearch/segment-anything 强烈建议大家试试Demo,效果真的很好:https://segment-anything.com/         本文建立了一个基础图像分割模型,并将其在一个巨大的数据集上进行训练,目的是解决一系列下游任务。本文的关键

    2023年04月23日
    浏览(57)
  • 【论文阅读】BERTopic:采用一个基于类的TF-IDF流程进行神经网络的主题建模

    主题模型对于在文档的集合中发现潜在的主题非常有用。近期的研究已经展示了主题建模方法作为一个聚类任务的可行性。 本文展示了BERTopic,它是一个话题模型,它通过对一个基于类的TF-IDF的变体的开发,抽取一致的话题表示。 具体来说,BERTopic采用预训练的基于transform

    2023年04月08日
    浏览(39)
  • EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    下面所有博客是个人对EEG脑电的探索,项目代码是早期版本不完整,需要完整项目代码和资料请私聊。 数据集 1、脑电项目探索和实现(EEG) (上):研究数据集选取和介绍SEED 相关论文阅读分析: 1、EEG-SEED数据集作者的—基线论文阅读和分析 2、图神经网络EEG论文阅读和分析:《

    2024年02月07日
    浏览(51)
  • [论文阅读] (27) AAAI20 Order Matters: 基于图神经网络的二进制代码相似性检测(腾讯科恩实验室)

    《娜璋带你读论文》系列主要是督促自己阅读优秀论文及听取学术讲座,并分享给大家,希望您喜欢。由于作者的英文水平和学术能力不高,需要不断提升,所以还请大家批评指正,非常欢迎大家给我留言评论,学术路上期待与您前行,加油。 前一篇文章介绍Excel论文可视化

    2024年02月14日
    浏览(39)
  • 【论文阅读】Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network 嘲讽检测,多模态,跨模态,图神经网络

    本博客系博主根据个人理解所写,非逐字逐句翻译,预知详情,请参阅论文原文。 发表地点: ACL 2022; 论文下载链接: Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network - ACL Anthology 代码链接: https://github.com/HITSZ-HLT/CMGCN; 随着在线发布包含多模态信息的博客的流行,

    2024年02月17日
    浏览(44)
  • bp神经网络数学建模论文,关于bp神经网络的论文

    最初是86年,Rumelhart和McCelland领导的科学家小组在《平行分布式处理》一书中,对具有非线性连续变换函数的多层感知器的误差反向传播BP算法进行了详尽的分析,实现了Minsky关于多层网络的设想。 一般引用的话,无需引用第一篇,只需引用介绍BP网络的文献即可。最开始的文

    2024年02月13日
    浏览(44)
  • 【论文笔记】神经网络压缩调研

     小模型,参数少,容易将ML模型部署在资源有限的设备上,但是直接训练一个好的小网络比较困难 基于参数修建和共享的方法针对模型参数的冗余性 试图取出冗余和不重要的项 基于低秩因子分解的技术使用矩阵/张量分解来估计深度学习模型的信息参数 基于传输/紧凑卷积

    2024年02月14日
    浏览(37)
  • 图神经网络论文笔记(一)——北邮:基于学习解纠缠因果子结构的图神经网络去偏

    作者 :范少华 研究方向 :图神经网络 论文标题 : 基于学习解耦因果子结构的图神经网络去偏 论文链接 :https://arxiv.org/pdf/2209.14107.pdf         https://doi.org/10.48550/arXiv.2209.14107   大多数图神经网络(GNNs)通过学习输入图和标签之间的相关性来预测不可见图的标签。然而,

    2024年02月07日
    浏览(43)
  • 论文解读:在神经网络中提取知识(知识蒸馏)

    提高几乎所有机器学习算法性能的一种非常简单的方法是在相同的数据上训练许多不同的模型,然后对它们的预测进行平均[3]。不幸的是,使用整个模型集合进行预测是很麻烦的,并且可能在计算上过于昂贵,无法部署到大量用户,特别是如果单个模型是大型神经网络。Car

    2024年02月21日
    浏览(46)
  • 论文笔记: 循环神经网络进行速度模型反演 (未完)

    摘要 : 分享对论文的理解, 原文见 Gabriel Fabien-Ouellet and Rahul Sarkar, Seismic velocity estimation: A deep recurrent neural-network approach. Geophysics (2020) U21–U29. 作者应该是领域专家, 对地球科学的理解胜于深度学习. 为方便讨论, 等式编号保持与原文一致. common-midpoint gathers (共中心点道集): 在地

    2024年02月10日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包