SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning论文阅读笔记

这篇具有很好参考价值的文章主要介绍了SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning论文阅读笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning适用于私有和鲁棒联邦学习的 MPC 友好框架

SAFEFL,这是一个利用安全多方计算 (MPC) 来评估联邦学习 (FL) 技术在防止隐私推断和中毒攻击方面的有效性和性能的框架。

概述

传统机器学习(ML):集中收集数据->隐私保护问题
privacy-preserving ML (PPML)采用的隐私保护技术:安全多方计算,同态加密(运算成本高)

联邦学习(FL):用户本地训练模型,中心聚合器组合结果来更新模型

易受2种攻击:1)隐私推断攻击 2)中毒攻击

  1. 隐私推断攻击

破坏模型聚合器的对手试图从更新的本地模型/梯度中推断有关用户隐私数据的敏感信息。

对策:安全聚合(SA)技术。用户将加密的本地更新发送到聚合器,聚合器只能访问组合的更新而不是单独的更新。

  1. 中毒攻击

腐败用户创建欺诈模型并将其发送到聚合器以操纵训练过程。
1)降低模型的准确性,使其无效。2)包含一个后门,当输入中存在特定触发器时,该后门会改变其预测。

对策:鲁棒的聚合方案。目标是从聚合中丢弃可能损坏的本地模型或使用各种评分措施将其影响最小化。

现有问题:不能同时应对这两种攻击

矛盾性:鲁棒聚合方案与安全聚合之间的冲突,鲁棒聚合方案需要对每个更新进行单独分析,安全聚合仅揭示聚合联合模型而不允许单独分析。

成本高:计算要求较高,与无隐私变体相比会产生显着的运行时开销,并且假设腐败模型较弱。

SAFEFL – 基于 MPC(multi-party computation) 的框架。

-用于评估鲁棒聚合技术对抗中毒攻击的有效性,同时还检查引入模型隐私的开销(通信和运行时)。

采用分布式聚合器<-MPC实现分布式聚合器<-MP-SPDZ框架实现MPC

-中央聚合器。受攻击后影响大,即使安全聚合到位,FL 隐私也可能受到损害。

-分布式聚合器。用户在两个或多个服务器上安全地分发本地更新,这些服务器使用交互协议私下计算聚合函数。

矛盾性:i)MP-SPDZ :连续安全计算 ii)FL :安全聚合与本地用户训练交织在一起

解决:
-通信器接口,通过扩展 MP-SPDZ 中提供的ExternalIO 库,连接广泛使用的开源机器学习框架 PyTorch和 MP-SPDZ
-此功能使我们能够轻松评估鲁棒聚合协议在不同 MPC 设置中的有效性和性能,从而促进更高效协议的开发。

开源代码(github上的)

https://encrypto.de/code/SAFEFL (论文给出的地址但访问不了)

SAFEFL 由两个模块组成:模型训练和聚合,以及连接它们的通信器接口

safefl: mpc-friendly framework for private and robust federated learning,论文阅读,笔记,深度学习

FLTrust代码

X. Cao, M. Fang, J. Liu, and N. Z. Gong, “FLTrust: Byzantine-robust Federated Learning via Trust Bootstrapping,” in NDSS, 2021, https://people.duke.edu/∼zg70/code/fltrust.zip.

该代码包括基本的 FL 设置及其在 Apache MXNet 中实现的稳健聚合方法,以及 Trim 中毒攻击的实现 。

拜占庭byzantine.py

定义了两种不同的联邦学习中的模型中毒攻击策略,no_byz 是一个不做任何修改的策略,而 trim_attack 是一个针对trimmed-mean聚合方法的对抗性攻击策略。

no_byz 函数表示没有拜占庭错误的情况,即所有客户端都是诚实的。而 trim_attack 函数则模拟了一种拜占庭错误,其中前 f 个客户端是恶意的,他们通过发送特定的对抗性更新来尝试破坏整个模型的聚合过程。

fltrust代码nd_aggregation.py

定义了一个名为 fltrust 的函数,用于在联邦学习环境中处理拜占庭错误。

FLTrust 函数通过计算客户端梯度与服务器更新之间的余弦相似度,并使用这些相似度作为权重来调整客户端的梯度,从而提高了联邦学习系统对拜占庭错误的鲁棒性。通过这种方式,函数试图减少恶意客户端对全局模型更新的影响。

test_byz_p.py

代码是一个使用MXNet实现的联邦学习框架的入口点。它定义了如何初始化模型、数据集、训练过程和拜占庭容错机制。

Model Training Module 模型训练模块-- PyTorch

基于 PyTorch 的模块负责代表用户执行本地模型训练。使用 FLTrust 的公开代码作为起点。

使用模型训练模块对 SAFEFL 中的模型进行本地训练后,下一步是使用 MPC 技术在分布式聚合器设置中执行私有且稳健的聚合。可以使用 MP-SPDZ 框架上运行的聚合模块来执行此聚合。

Aggregation Module 聚合模块 – MP-SPDZ(连续安全计算)

该模块利用 MP-SPDZ 中实现的 MPC 协议执行分布式安全聚合。

我们选择 FLTrust 作为 SAFEFL 中采用的私有且稳健的聚合方案的最佳候选者。这是因为它是 DnC、FLAME 和 FLTrust 三种方案中对 MPC 最友好的。最佳鲁棒聚合方案。

对于 FLTrust,我们允许 PyTorch 中的可信用户(可以是用户或 MPC 服务器)在根数据集上训练服务器模型。 MPSPDZ 用于计算信任分数并聚合最终模型。

我们还实现了 FedAvg 聚合方案,作为估计添加稳健聚合的成本开销的基准。我们从 FedAvg 中删除了用户数据大小的权重,以提高其效率并减少数值错误。

Communicator Interface 通信器接口

由于MP-SPDZ中使用的协议是为连续安全计算而设计的,因此它们必须在虚拟机上编译和执行。另一方面,FL 中的训练需要在本地训练之间交叉调用安全聚合。

我们在 SAFEFL 中创建了一个通信器接口,支持 PyTorch 和 MP-SPDZ 库之间的双向通信

我们利用此通信器将本地训练模型的秘密共享从 PyTorch 安全地传输到 MPSPDZ 中的 MPC 服务器,这些服务器使用指定的 MPC 协议计算聚合,并将聚合模型返回到 PyTorch 以进行下一次训练迭代。

我们的起点是 MP-SPDZ 提供的 Banker Bonus 示例,它解决了最多 8 个用户的 Yao 百万富翁问题 。
在此示例中,MPC 服务器在指定端口上侦听用户并接受来自用户侧接口的连接。当所有用户都连接时,计算开始,计算完成后关闭连接。
此外,连接通过 SSL 进行保护,并且在启动时生成所需的密钥和证书。

在 SAFEFL 中,我们扩展了 MP-SPDZ 用户界面以发送任意数量的数据,并将用户集成到 PyTorch 中,以将秘密共享的本地模型发送到 MPC 服务器并检索聚合模型。为简单起见,我们让 PyTorch 作为单个用户运行,使用 MPC 服务器分发所有本地模型。然而,这可以简单地扩展,以便每个用户单独连接。

进行的实验测试评估

基准测试环境。所有实验均在 16 核机器上运行,1 配备 2.8 GHz Intel Core i9-7960X 处理器和 128GB RAM,运行 Linux。我们通过带宽 10Gbps 和往返时间 (RTT) 1ms 的 LAN 设置进行评估

通过SAFEFL实施了广泛的FL 中毒攻击,并对各种稳健的聚合方案和报告准确性进行了全面评估。

FL中毒攻击:实现了 7 种中毒攻击和 14 种不同的聚合方案

准确性评估:评估由 30 个用户组成(与 HAR 数据集一致),模型训练进行了 2,000 次迭代,假设恶意损坏率为 20%。我们选择的攻击涵盖了 FL 中的数据中毒和模型中毒攻击。

准确性评估结果:以下三种稳健的聚合方案——DnC 、FLAME 和 FLTrust 的准确率始终比简单的 FedAvg 在没有攻击的情况下所能达到的准确率低至多 0.05 ,即 0.97。

使用针对各种设置定制的多个MPC 协议来评估FLTrust 中稳健聚合方案的私有实现的计算和通信开销。

使用MPSPDZ聚合模块评估 FLTrust 和 FedAvg 的私有变体的通信和运行时成本。
使用四种不同的 MPC 协议在 64 位环上运行,以满足不同的设置。
使用 MP-SPDZ 在各种 MPC 设置中进行 50 次迭代的 FLTrust 和 FedAvg 隐私保护实现的通信(以 GB 为单位的通信)和计算(以小时为单位的时间)成本。

结果:对应于底层 MPC 协议的复杂性,诚实的多数优于不诚实的多数,恶意安全比半诚实安全更昂贵。当在具有恶意安全性的更强的不诚实多数设置中从 FedAvg 迁移到 FLTrust 时,我们观察到通信量提高了约 16 倍,运行时间提高了约 3.6 倍。 虽然在恶意诚实多数设置中的通信也观察到类似的趋势,但运行时的开销减少到约 1.5 倍。

观察结果表明,应做出更多努力来弥合沟通差距,以使私人和稳健的聚合计划更加可行。

SAFEFL框架相关工作

论文还介绍了安全多方计算(MPC),联邦学习(FL)中的中毒攻击例子(4种),联邦学习(FL)中的鲁棒聚合方案(13种)

未来工作:增强兼容性,适用于更多的MPC框架文章来源地址https://www.toymoban.com/news/detail-855577.html

到了这里,关于SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning论文阅读笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • HuggingGPT Solving AI Tasks with ChatGPT and its Friends in Hugging Face

    HuggingGPT 让LLM发挥向路由器一样的作用,让LLM来选择调用那个专业的模型来执行任务。 HuggingGPT搭建LLM和专业AI模型的桥梁。 Language is a generic interface for LLMs to connect AI models Task Planning: 将复杂的任务分解。但是这里是将任务分解为一系列的structured tasks。还可以通过之前的 ch

    2024年02月15日
    浏览(30)
  • 图片速览 DCN K-means-friendly Spaces: Simultaneous Deep Learning and Clustering

    本文使用了一种交替更新网络参数和聚类中心的方法。在网络更新完成之后,对于固定的网络参数和 M,再更新当前样本的分配向量。然后根据新的分配结果如式子3.8更新聚类中心: 注:文中还有问题是否能进行凸优化的部分 https://arxiv.org/pdf/1610.04794v1.pdf https://github.com/sars

    2024年02月16日
    浏览(33)
  • 《2023 HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in Hugging Face》阅读笔记

    借助大语言模型(LLMS)在语言理解生成推理等方面表现出的出色能力,考虑将其作为控制器来管理现有的各种AI模型, 把语言作为通用接口 。基于这一理念,提出了HuggingGPT框架,利用LLMS(ChatGPT)来连接机器学习社区(Hug face)中的各种AI模型,具体来说就是在接收用户请求

    2024年02月02日
    浏览(52)
  • 论文阅读《GlueStick: Robust Image Matching by Sticking Points and Lines Together》

    论文地址:https://arxiv.org/abs/2304.02008 源码地址:https://github.com/cvg/GlueStick   针对视角变化时在闭塞、无纹理、重复纹理区域的线段匹配难的问题,本文提出一种新的匹配范式(GlueStick),该方法基于深度图神经网络将点、线的描述符统一到一个框架中,利用点之间的信息将

    2024年02月08日
    浏览(32)
  • 对于 《Robust Blockchained Federated Learning with Model Validation and PoS Inspired Consensus》的讨论

    本文主要是根据Google FL和Vanilla FL为基础进行创新的,发表于2021年。其中 Vanilla FL 是Google公司于2017年写的一篇论文《Communication-Efficient Learning of Deep Networks from Decentralized Data》中提到的方法,也是全球第一个提出联邦学习的论文。 Google FL 也是Google公司于2017年写的一篇论文《

    2024年02月06日
    浏览(33)
  • 低照度增强--论文阅读【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    介绍一篇最近看的低照度增强方面的论文——自校准照明,文中所给的方法取得了非常不错的效果,值得我们去学习和思考。 论文名称 :Toward Fast, Flexible, and Robust Low-Light Image Enhancement(实现快速、灵活和稳健的低光照图像增强) 论文信息 :由大连理工大学2022年4月发表在

    2024年02月06日
    浏览(41)
  • Training-Time-Friendly Network for Real-Time Object Detection 论文学习

    目前的目标检测器很少能做到快速训练、快速推理,并同时保持准确率。直觉上,推理越快的检测器应该训练也很快,但大多数的实时检测器反而需要更长的训练时间。准确率高的检测器大致可分为两类:推理时间久的的训练时间久的。 推理时间久的检测器一般依赖于复杂的

    2024年02月15日
    浏览(33)
  • robust distortion-free watermarks for language models

    本文是LLM系列文章,针对《robust distortion-free watermarks for language models》的翻译。 我们提出了一种从自回归语言模型中在文本中植入水印的方法,该方法对扰动具有鲁棒性,而不会在一定的最大生成预算下改变文本上的分布。我们通过将一系列随机数映射到语言模型的样本来生

    2024年02月11日
    浏览(27)
  • 《Learning to Reweight Examples for Robust Deep Learning》笔记

    [1] 用 meta-learning 学样本权重,可用于 class imbalance、noisy label 场景。之前对其 (7) 式中 ϵ i , t = 0 epsilon_{i,t}=0 ϵ i , t ​ = 0 ( 对应 Algorithm 1 第 5 句、代码 ex_wts_a = tf.zeros([bsize_a], dtype=tf.float32) )不理解:如果 ϵ epsilon ϵ 已知是 0,那 (4) 式的加权 loss 不是恒为零吗?(5) 式不是

    2024年01月23日
    浏览(80)
  • Benchmarking Augmentation Methods for Learning Robust Navigation Agents 论文阅读

    题目 :Benchmarking Augmentation Methods for Learning Robust Navigation Agents: the Winning Entry of the 2021 iGibson Challenge 作者 :Naoki Yokoyama, Qian Luo 来源 :arXiv 时间 :2022 深度强化学习和可扩展的真实感模拟的最新进展使得用于各种视觉任务(包括导航)的具体人工智能日益成熟。然而,虽然在

    2024年02月14日
    浏览(28)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包