[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis

这篇具有很好参考价值的文章主要介绍了[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Federated Learning With Differential Privacy:Algorithms and Performance Analysis

1.整篇论文的总结:

(1)提出了一种基于差分隐私的联邦学习框架:NbAFL(noising before model aggregation FL),在局部模型聚合成全局模型之前加入噪声(客户端和服务器端都会加噪声)。

(2)对训练的FL模型的损失函数规定了一个理论上的收敛界限(就是要求损失函数低于某个值),在这个收敛界限下进行实验,揭示了三个主要发现:

i.NbAFL的收敛性能和提供的隐私保护级别(主要指加入噪声的多少)之间存在一个平衡,即收敛性能越好,保护级别越低;反之亦然。

ii.给定固定的隐私保护级别,增加参与FL的整体客户端数量N可以提高最终模型的收敛性能;

iii.在给定的隐私保护级别下,就收敛性能而言,存在一个最佳的最大聚合次数T

(3)在上述三个发现的基础上,作者还提出了一种 K- 客户端随机调度策略,其中从 N 个整体客户端中随机选择 K(1 ≤ K < N)个客户端参与每轮的模型聚合。在这种情况下,也为损失函数制定了相应的收敛界限,并且 K-client 随机调度策略也保留了上述三个属性。

​ 此外,实验表明,在给定的隐私保护级别下,使用K-客户端随机调度策略,我们可以找到一个确定的K,使得最终的模型的收敛性能最好。

(4)虽然联邦学习能够避免用户将本地数据上传至服务器,但用户训练好的模型的参数以及服务器下发给用户的全局模型中的参数依然有可能被攻击者利用,因而这篇文章的目的就是利用差分隐私在一定程度上解决上述隐私问题,同时使得模型的收敛性能不会因加入了噪声而受到太大的影响。也就是在两者之间寻求一个最佳的平衡点。(更具体的说,是考虑了四个因素:隐私保护级别,收敛性能,每次选择的客户端数量,全局聚合次数。)

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

2.一些主要的符号:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 作者假设上行信道比下行广播信道更安全,因为客户端可以在每个上传时间动态分配到不同的信道(例如,时隙、频带),而下行信道是将全局模型广播给客户端,更容易被攻击者截获模型参数信息。

3.提出的加入联邦学习的差分隐私机制:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

4.敏感度S的推导(客户端和服务端)以及添加的噪声的大小:

​ 第i个客户端的模型训练过程由下列公式表示:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 由(4)进一步可以推导出第i个客户端的敏感度(C表示梯度的裁剪阈值):

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 由(5)可以得到整个上行链路(能够满足所有客户端)的敏感度:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 由(5)和(6)可以看到,客户端的敏感度和数据集的大小成反比。经过推导,应该给每个客户端训练好的模型添加的噪声大小如下:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 其中L为本地模型的参数数目。

​ 同样,推导出下行链路(服务器端)的敏感度:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 那么当Pi=1/N,即每个本地模型参与聚合时的重要性占比相等时,有一个最佳的敏感度(最佳的意思就是从最大值里面找最小值)。然后作者提到:在NbAFL中,对于客户端,每次训练好本地模型后,是一定得添加噪声再发给服务器端的;而服务器端在分发全局模型时是否添加噪声,这是不一定的。至于到底加不加,由下列式子决定:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 可以看到,服务器端是否添加噪声来形成差分隐私保护,是由T(聚合次数)、L(模型的参数数目)、N(参与联邦学习的客户端数量)三者的关系决定的。(10)的理论基础是:直觉上看,当L为定值时,T 越大,信息泄露的机会越大,而客户端数量N越大,更有助于隐藏每个客户端的私人信息。

5.NbAFL的运行流程:

​ 算法如下所示:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 通过上面的算法介绍,可以来分析 NbAFL 的隐私保护性能。首先,服务器接收所有本地参数的集合,由于 NbAFL 中的局部扰动,恶意攻击者很难从其上传的参数 w i 推断 i 客户端的信息。模型聚合后,聚合后的参数 w 将通过广播通道发送回客户端,这可能会对客户的隐私构成威胁,因为潜在的攻击者可能会从 w 泄露有关单个客户的敏感信息。在这种情况下,根据定理 1来判断是否对 w 添加噪声。这样就起到了传统FL无法达到的隐私保护作用。

6.NbAFL的收敛性能分析:

​ 前面已经说明NbAFL的确能够起到隐私保护的效果,刚开始也提到过,隐私保护效果越好,收敛性能就会相对降低。

下面给出每轮迭代后,损失函数相对于上一轮的改变量:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 我们希望(12)的右边越小越好,那么选择一个合适的u就很关键(u是联邦学习开始时确定的一个常量)。

​ 然后又得到了一个整体噪声(客户端和服务器端噪声的融合):

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法
[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 通过上面的(12)(13),得到给定的隐私保护级别下,NbAFL的收敛上界表达式:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 总结出的三个remark:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

7.K-client随机调度策略:

​ 前面已经把选择所有客户端(N个)进行联邦学习的NbAFL讲完了,作者在此基础上进一步提出了K-client随机调度策略,也就是从N个用户中选择K个参与训练,实验证明这样的收敛性能会更好

​ 对于K-client随机调度策略,在客户端加入的噪声大小是和之前选择所有客户端一样的,而下行链路(即服务器端所加的)噪声大小有一些不同,具体由下列公式给出:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 由(16)可以推导出K-client情形下的收敛上界:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

​ 由(17)可以得到以下结论:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法

8.实验结果图:

[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法
[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis,论文精读笔记,深度学习,神经网络,网络,人工智能,算法文章来源地址https://www.toymoban.com/news/detail-672904.html

到了这里,关于[paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【多方安全计算】差分隐私(Differential Privacy)解读

    差分隐私(Differential privacy)最早于2008年由Dwork 提出,通过严格的数学证明,使用随机应答(Randomized Response)方法确保数据集在输出信息时受单条记录的影响始终低于某个阈值,从而使第三方无法根据输出的变化判断单条记录的更改或增删,被认为是目前基于扰动的隐私保护

    2024年02月06日
    浏览(31)
  • 【Paper Reading】DETR:End-to-End Object Detection with Transformers

    Transformer已经在NLP领域大展拳脚,逐步替代了LSTM/GRU等相关的Recurrent Neural Networks,相比于传统的RNN,Transformer主要具有以下几点优势 可解决长时序依赖问题,因为Transformer在计算attention的时候是在全局维度进行展开计算的,所以不存在长时序中的梯度消失等问题。 Transformer的

    2024年02月14日
    浏览(36)
  • 【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting

    个人阅读笔记,如有错误欢迎指出 Arxiv 2019        [1912.11464] Attack-Resistant Federated Learning with Residual-based Reweighting (arxiv.org) 问题:         联邦学习容易受到后门攻击 创新:         提出一种基于残差的重新加权聚合算法         聚合算法将重复中值回归和加权

    2024年02月15日
    浏览(37)
  • 对于 《Robust Blockchained Federated Learning with Model Validation and PoS Inspired Consensus》的讨论

    本文主要是根据Google FL和Vanilla FL为基础进行创新的,发表于2021年。其中 Vanilla FL 是Google公司于2017年写的一篇论文《Communication-Efficient Learning of Deep Networks from Decentralized Data》中提到的方法,也是全球第一个提出联邦学习的论文。 Google FL 也是Google公司于2017年写的一篇论文《

    2024年02月06日
    浏览(34)
  • 【联邦学习+区块链】A Blockchain-based Decentralized Federated Learning Framework with Committee Consensus

    论文地址 :https://ieeexplore.ieee.org/abstract/document/9293091 文章提出了一种基于区块链的去中心化、自治的 FL 架构来应对现阶段所面临的各种挑战(架构如Fig.1所示)。在FL节点管理上,基于联盟链的架构保证了节点的权限控制。在存储方面,文章设计了模型和更新的链上存储模式,

    2024年02月03日
    浏览(36)
  • A Blockchain-Enabled Federated Learning System with Edge Computing for Vehicular Networks边缘计算和区块链

    摘要:在大多数现有的联网和自动驾驶汽车(CAV)中,从多辆车收集的大量驾驶数据被发送到中央服务器进行统一训练。然而,在数据共享过程中,数据隐私和安全没有得到很好的保护。此外,集中式体系结构还存在一些固有问题,如单点故障、过载请求、无法容忍的延迟等

    2024年02月05日
    浏览(31)
  • Multi-Grade Deep Learning for Partial Differential Equations

    偏微分方程定义 一个偏微分方程可以定义如下: F ( u ( t , x ) ) = 0 , x ∈ Ω , t ∈ ( 0 , T ] , I ( u ( 0 , x ) ) = 0 , x ∈ Ω , t = 0 , B ( u ( t , x ) ) = 0 , x ∈ Γ , t ∈ ( 0 , T ] , begin{aligned}mathcal{F}(u(t,x))=0,xinOmega,tin(0,T],\\\\mathcal{I}(u(0,x))=0,xinOmega,t=0,\\\\mathcal{B}(u(t,x))=0,xinGamma,tin(0,T],end

    2024年02月07日
    浏览(33)
  • 【论文导读】-Vertically Federated Graph Neural Network for Privacy-Preserving Node Classification纵向联邦图神经网络

    原文地址:https://www.ijcai.org/proceedings/2022/0272.pdf Graph Neural Network (GNN) has achieved remarkable progresses in various real-world tasks on graph data, consisting of node features and the adjacent information between different nodes. High-performance GNN models always depend on both rich features and complete edge information in graph. Howeve

    2024年01月23日
    浏览(31)
  • 联邦学习((Federated Learning,FL)

    每日一诗: 题竹(十三岁应试作于楚王孙园亭) ——明*张居正 绿遍潇湘外,疏林玉露寒。 凤毛丛劲节,只上尽头竿。 近期在阅读联邦学习领域相关文献,简单介绍如下文。本文仅供学习,无其它用途。如有错误,敬请批评指正! 一、联邦学习(Federated Learning,FL): 举目

    2024年02月06日
    浏览(33)
  • labml.ai Deep Learning Paper Implementations

    labml.ai Deep Learning Paper Implementations github地址:https://github.com/labmlai/annotated_deep_learning_paper_implementations 可视化网站:https://nn.labml.ai/ 来自B站

    2024年02月12日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包