【论文导读】- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)

这篇具有很好参考价值的文章主要介绍了【论文导读】- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文信息

SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks

spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据

原文链接:SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks:https://arxiv.org/abs/2106.02743

摘要

Graph Neural Networks (GNNs) are the first choice methods for graph machine learning problems thanks to their ability to learn state-of-the-art level representations from graph-structured data. However, centralizing a massive amount of real-world graph data for GNN training is prohibitive due to user-side privacy concerns, regulation restrictions, and commercial competition. Federated Learning is the de-facto standard for collaborative training of machine learning models over many distributed edge devices without the need for centralization. Nevertheless, training graph neural networks in a federated setting is vaguely defined and brings statistical and systems challenges. This work proposes SpreadGNN, a novel multi-task federated training framework capable of operating in the presence of partial labels and absence of a central server for the first time in the literature. SpreadGNN extends federated multi-task learning to realistic serverless settings for GNNs, and utilizes a novel optimization algorithm with a convergence guarantee, Decentralized Periodic Averaging SGD (DPA-SGD), to solve decentralized multi-task learning problems. We empirically demonstrate the efficacy of our framework on a variety of non-I.I.D. distributed graph-level molecular property prediction datasets with partial labels. Our results show that SpreadGNN outperforms GNN models trained over a central server-dependent federated learning system, even in constrained topologies.

图神经网络( GNN )是图机器学习问题的首选方法,因为它们能够从图结构数据中学习最先进的表示。然而,由于用户方面的隐私问题、法规限制和商业竞争,将大量的真实世界图形数据集中用于GNN训练是令人望而却步的。联邦学习是在许多分布式边缘设备上协同训练机器学习模型的事实上的标准,而无需集中化。尽管如此,在联邦环境中训练图神经网络是模糊定义的,并带来统计和系统挑战。本文首次在文献中提出了可以在存在部分标签和没有中心服务器的情况下运行的新型多任务联邦训练框架SpreadGNN。SpreadGNN将联邦多任务学习扩展到GNN的实际无服务器设置,并使用具有收敛保证的新型优化算法- -分布式周期平均SGD ( DPA-SGD )来解决分布式多任务学习问题。我们在多种带有部分标签的非I . I . D .分布式图水平分子性质预测数据集上实证了我们框架的有效性。我们的结果表明,即使在有约束的拓扑结构中,SpreadGNN也优于在中央服务器依赖的联邦学习系统上训练的GNN模型。

SpreadGNN Framework

用于图层次学习的联邦图神经网络

我们寻求在位于边缘服务器的分散图数据集上学习图级别的表示,这些数据集由于隐私和规则限制而无法集中进行训练。例如,分子试验中的化合物可能由于知识产权或监管方面的考虑而无法跨实体共享。在此设置下,我们假设FL网络中有K个客户端,并且每个客户端有自己的数据集。每个客户端都拥有一个带有readout的GNN,以学习图级表示。我们把这个GNN模型设置为一个readout函数和一个graph classifier。多个客户端可以协作改进他们的GNN模型,而不必透露他们的图数据集。在本文中,我们将理论建立在消息传递神经网络( Message Passing Neural Network,MPNN )框架之上,因为大多数空间GNN模型都可以统一到这个框架中。一个MPNN的前向传递有两个阶段:消息传递阶段(式( 1 ) )和更新阶段(式( 2 ) )。对于每个客户端,我们用一个有L层的GNN和一个readout函数来定义图分类器,如下所示:
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据
其中,spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据为第k个客户端的节点特征,l为层索引,AGG为聚合方法,Ni表示第i个节点的邻居。

为了构造基于GNN的FL,使用上面的模型定义之外,我们定义spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据作为总体可学习的权重。注意,W独立于图结构,因为GNN和Readout参数都不对输入图做任何假设。因此,可以使用基于FL的方法学习W。整个FL任务可以表示为一个分布式优化问题:
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据

其中,spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据是度量异构图数据集D ( k )上的局部经验风险的第k个客户端的局部目标函数。L是全局图分类器的损失函数。

有了这样的公式,它可能看起来像是为基于FedAvg的优化器定制的优化问题。不幸的是,在分子图设置中,由于以下原因,情况并非如此。( a )在我们的环境中,客户端属于去中心化的无服务器拓扑。没有一个中心服务器可以从客户端对模型参数进行平均。( b )在我们的场景中,客户具有不完整的标签,因此Φ task的维度在不同的客户上可能不同。例如,一个客户可能只有一个分子的部分毒性标签,而另一个客户可能具有一个分子与另一个药物化合物的相互作用性质。即使每个客户的信息不完整,我们的学习任务也有兴趣在多个标签类别中对每个分子进行分类。联邦多任务学习( FMTL )是一个流行的框架,旨在处理这些问题。然而,目前的方法不能推广到非凸深度模型,如图神经网络。为了解决这些问题,我们首先在第2.2节中介绍一个用于图神经网络的集中式FMTL框架。但是,在由多个相互竞争的实体拥有的分子图中,依赖中央服务器可能是不可行的。因此,我们将这个集中式FMTL增强到第2.3节中的无服务器场景,我们称之为SpreadGNN

图神经网络的联邦多任务学习

spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据在正则化MTL范式下,我们定义了如下的集中式联邦图MTL问题( FedGMTL ):
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据图2-a描述了客户图分类器权重使用FLserver的FedGMTL框架。虽然上面的公式通过一个可用于GNN学习的受限正则化器增强了FMTL,但我们仍然需要解决最后的挑战,即消除对中央服务器的依赖,以执行公式5中的计算。因此,我们提出了一个去中心化图多任务学习框架SpreadGNN,并利用我们新的优化器去中心化周期平均SGD ( DPA-SGD )来扩展FMTL框架。去中心化框架如图2 - c所示。注意,每个客户机的学习任务保持不变,但SpreadGNN中的聚合过程不同。

SpreadGNN

为了过渡到无服务器设置,我们引入了一种新的优化方法,称为去中心化周期平均SGD ( DPA-SGD )。DPA - SGD的主要思想是每个客户机在本地应用SGD,并在每τ次迭代发生的通信轮中仅与邻居同步所有参数。在一个分散的系统中,所有客户端不一定连接到所有其他客户端,这也使得维护一个任务协方差矩阵Ω是不可能的。因此,我们提出使用不同的协方差矩阵Ωkin每个客户端,并使用图3所示的交换机制进行高效更新。我们将这个想法形式化如下。考虑一个特定的客户m有任务权重Φ task,m∈Rd × Sm其中Sm为客户m拥有的任务数。
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据
在去中心化的设置中,我们强调客户端可以集体学习任务的穷举集,即使客户端可能无法访问每个多类标签中的某些类。那么,新的非凸目标函数可以定义为:
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据为了解决这个非凸问题,我们应用了文献中提出的交替优化方法,其中W k和Ωk以交替的方式更新。

spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据
第一个平均项可以将附近的节点相关性合并为它自己的相关性。值得注意的是,每个Ωimay具有不同的维度(不同数量的邻居),因此该平均算法是基于全局Ω中的节点对齐。falign函数如图3所示。在这里,对每个客户机执行falign,第二项捕获其邻居之间的新相关性,如图3所示。

DPA-SGD的收敛性质

在这一部分,我们给出了DPA - SGD的收敛性分析.我们的分析解释了为什么DPA - SGD在联邦环境下运行良好。在上一节中,我们介绍了DPA - SGD算法。在任何形式之前,我们首先引入一个二进制对称的节点连接矩阵M∈RK × K来记录网络中的连接,其中Mi是一个二进制值,表示节点i和j是否连接。我们假设M满足:(a) M1K = 1K , (b) MT = M , c) max { | λ2 ( M ) |,. . .,| λK ( M ) | } < λ1 ( M ) = 1,其中λ是M的特征值。注意到,如果M = I ( Identity matrix ),那么每个节点都是独立的并且分别更新参数.如果M = J(每个元素一个),则模型退化为集中式模型。在这里,我们给出了DPA - SGD的数学上简单方便的更新规则:
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据接下来,我们将给出我们对上述平均模型ut的收敛性的分析。对于非凸优化,先前关于SGD收敛性分析的工作使用平均平方梯度范数作为收敛到稳定点的指标。

假设,假设1和定义( 13 )成立。然后,如果学习率η满足以下条件:
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据
以上表明DPA - SGD算法在收敛速度和包括通信效率(通信轮数)和收敛速度在内的系统优化之间是一个折中。最近的工作在一个统一的框架下得到了相同的结果。我们的工作与这项工作的不同之处在于它没有为联邦学习提供充分的理论分析和实证评估。

实验

为了证明我们的框架不依赖于GNN模型的选择,我们在两种不同的GNN架构上运行实验:GraphSAGE和GAT。

我们首先在一个完整的拓扑中评估我们的框架,其中所有客户端都连接到所有其他客户端,以衡量我们提出的正则化器的有效性。然后,我们对每个客户的邻居数量进行消融研究,以强调在更有约束力的环境中测试我们的框架。

spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据
我们使用一个中央的、服务器依赖的FedAvg系统作为比较的基准。更具体地说,在每个平均轮中,所有客户端都参与模型参数的平均。

我们在表2中总结的结果表明,当所有客户端都可以与所有其他客户端通信时,SpreadGNN (第三列)优于使用FedAvg (第一列)的集中式联邦学习系统。这表明,通过使用方程6中的任务正则化器和DPA - SGD算法的组合,我们可以消除对中央服务器的依赖,并使客户能够在其各自的标签中缺少分子属性的情况下更有效地学习。此外,结果还表明,由于Graph SAGE和GAT都受益于我们的框架,我们的框架对用于分子性质预测任务的GNN模型类型不敏感。我们的框架也适用于可信中心服务器可用的情况(第二列)。可信中心服务器的存在提高了少数场景下的准确率。然而,SpreadGNN在中央服务器不可行的更现实的环境中提供了竞争性能。

图4显示了λ 1对回归和分类任务的影响。有趣的是,回归对λ 1的变化更加稳健,而分类则需要更仔细地调整λ 1以获得最佳的模型性能。这意味着回归任务中的不同属性比分类任务中的属性更加独立。
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据
网络拓扑结构决定了一个通信轮中每个客户端可以与多少邻居进行通信。虽然表2显示了SpreadGNN在一个完整的拓扑中优于FedAvg,但是图5显示了我们的框架即使在客户端被限制与更少的邻居通信时也优于FedAvg。我们还可以看到,重要的不仅仅是邻居,客户端连接的拓扑结构也很重要。当n邻域= 2时,环拓扑优于随机拓扑,因为环保证了从任意客户端到任意其他客户端的路径。因此,学习在所有客户端之间是间接共享的。
spreadgnn: serverless multi-task federated learning for graph neural network,论文导读,SpreadGNN,去中心化,图联邦学习,分子图数据

总结

在这项工作中,我们提出了SpreadGNN,一个在无服务器的联邦系统中训练图神经网络的框架。我们通过一个现实的环境来激励我们的框架,在这个环境中,由于隐私和竞争,参与分子机器学习研究的客户无法相互共享数据。此外,我们进一步认识到,客户可能只拥有其数据的部分标签。通过实验分析,我们首次表明,以联邦方式训练图神经网络不需要集中式拓扑结构,并且我们的框架可以解决非独立同分布indataset大小和客户端之间的标签分布问题。即使在客户端只能与少数邻居通信的情况下,SpreadGNN也能超越中心服务器依赖基线。为了支持我们的实证结果,我们还给出了SpreadGNN使用的DPA - SGD优化算法的收敛性分析。文章来源地址https://www.toymoban.com/news/detail-793310.html

到了这里,关于【论文导读】- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文导读】- Cluster-driven Graph Federated Learning over Multiple Domains(聚类驱动的图联邦学习)

    Cluster-driven Graph Federated Learning over Multiple Domains 原文链接:Cluster-driven Graph Federated Learning over Multiple Domains:https://openaccess.thecvf.com/content/CVPR2021W/LLID/papers/Caldarola_Cluster-Driven_Graph_Federated_Learning_Over_Multiple_Domains_CVPRW_2021_paper.pdf Federated Learning (FL) deals with learning a central model (i.e.

    2024年02月03日
    浏览(34)
  • 【论文导读】- A Topological Information Protected Federated Learning Approach for Traffic Speed Forecasting

    FASTGNN: A Topological Information Protected Federated Learning Approach forTraffic Speed Forecasting 原文地址:https://ieeexplore.ieee.org/document/9340313 Federated learning has been applied to various tasks in intelligent transportation systems to protect data privacy through decentralized training schemes. The majority of the state-of-the-art model

    2024年02月09日
    浏览(36)
  • 【论文导读】-Vertically Federated Graph Neural Network for Privacy-Preserving Node Classification纵向联邦图神经网络

    原文地址:https://www.ijcai.org/proceedings/2022/0272.pdf Graph Neural Network (GNN) has achieved remarkable progresses in various real-world tasks on graph data, consisting of node features and the adjacent information between different nodes. High-performance GNN models always depend on both rich features and complete edge information in graph. Howeve

    2024年01月23日
    浏览(31)
  • 【论文导读】- GraphFL: A Federated Learning Framework for Semi-Supervised Node Classification on Graphs

    原文地址:https://arxiv.org/abs/2012.04187 Graph-based semi-supervised node classification (GraphSSC) has wide applications, ranging from networking and security to data mining and machine learning, etc. However, existing centralized GraphSSC methods are impractical to solve many real-world graph-based problems, as collecting the entire graph and labeli

    2024年02月02日
    浏览(34)
  • 【论文笔记 | 异步联邦】Asynchronous Federated Optimization

    Asynchronous Federated Optimization,OPT2020: 12th Annual Workshop on Optimization for Machine Learning,不属于ccfa 任务激活不频繁(比较难以达成条件):对于弱边缘设备,学习任务只在设备空闲、充电、连接非计量网络时执行 通信不频繁:边缘设备和远程服务器之间的连接可能经常不可用、缓

    2024年04月27日
    浏览(30)
  • 【论文阅读——Profit Allocation for Federated Learning】

    由于更为严格的数据管理法规,如《通用数据保护条例》(GDPR),传统的机器学习服务生产模式正在转向联邦学习这一范式。联邦学习允许多个数据提供者在其本地保留数据的同时,协作训练一个共享模型。推动联邦学习实际应用的关键在于如何将联合模型产生的利润公平地

    2024年04月13日
    浏览(40)
  • 一、区块链跨链入门介绍---思考&论文导读

    引言-跨链论文系列文章目录 细细想来读研也有1年过半,却没有将所学所想记录下来,计划用2-3月时间,将自己的所学所见,细细记录一下,并提出 自己的一些思考 。 如果对跨链一点不了解的话,建议可以先看看我最后附上的综述论文,再回头看这篇文章。 本篇是所有关于

    2024年01月18日
    浏览(34)
  • 【论文导读】 - 关于联邦图神经网络的3篇文章

    联邦图神经网络:概述、技术和挑战 原文地址:https://arxiv.org/abs/2202.07256 With its powerful capability to deal with graph data widely found in practical applications, graph neural networks (GNNs) have received significant research attention. However, as societies become in-creasingly concerned with data privacy, GNNs face the need to a

    2024年01月17日
    浏览(28)
  • 论文笔记--FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY

    标题:FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY 作者:Jakub Konecny, H. Brendan McMahan, Felix X. Yu, Ananda Theertha Suresh, Dave Bacon 日期:2016 期刊:arxiv   文章给出了一种联邦学习(federated learning, FL)的新的方法,可以提升多终端之间的交流效率,从而支持多台设备在不稳定

    2024年02月15日
    浏览(33)
  • 【论文导读】- Variational Graph Recurrent Neural Networks(VGRNN)

    Variational Graph Recurrent Neural Networks(VGRNN) 原文地址:Variational Graph Recurrent Neural Networks(VGRNN):https://arxiv.org/abs/1908.09710 源码: https://github.com/VGraphRNN/VGRNN Representation learning over graph structured data has been mostly studied in static graph settings while efforts for modeling dynamic graphs are still scant

    2024年02月08日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包