【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning

这篇具有很好参考价值的文章主要介绍了【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

个人阅读笔记,如有错误欢迎指出!

会议:NDSS 2022        [2009.03561] Local and Central Differential Privacy for Robustness and Privacy in Federated Learning (arxiv.org)

问题:

        尽管联邦学习能在一定程度上保护数据隐私,但也存在隐私和鲁棒性漏洞

主要贡献:

        首次发现LDP和CDP都可以抵御后门攻击

        发现仅在FL的非攻击者上应用LDP可以提高后门攻击的准确性

        LDP和CDP可以防止(白盒)成员推断

        LDP与CDP均不能防御属性推断攻击

Preliminaries

        差分隐私

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        LDP本地差分隐私:每个参与者向服务器发送更新之前添加噪声。对参与者数据集中的记录进行了限制。各个参与者在其本地运行DP可以使用moments accountant来分配隐私预算

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        CDP中央差分隐私:服务器应用DP聚合算法。限制了关于特定参与者的信息。服务器截取参与者更新的l2范数,然后聚合截取的更新并将高斯噪声添加到聚合中,来防止过度适应任何参与者的更新。为了跟踪花费的隐私预算,可以使用moments accountant。

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

moments accountant

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

方法:

        对LDP和CDP进行针对后门的攻击实验

        通常使用范数裁剪和弱差分隐私,但二者均不能防御推理攻击

        实验设置:数据集EMNIST,CIFAR10,Reddit,Sentiment140

        1)所有参与方上部署CDP

        2)所有参与方上部署LDP(包括攻击者)

        3)仅在非攻击者上部署LDP

        4)范数裁剪

        5)弱差分隐私

        攻击方设置

        1)单像素攻击(右下角像素)

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        2)CIFAR10的语义后门

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        3)Reddit评论数据集的语义后门

        攻击者预测的句子包括“伦敦”这座城市,并以预设的单词作为后门。如后门句:1)“伦敦人很有攻击性”,2)“伦敦的天气总是晴朗的”,3)“住在伦敦很便宜”

        4)Sentiment140语义后门

        攻击者在训练数据中注入后门文本“我感觉很棒”,以使聚合模型将带有后门文本的推文分类为负面推文。

后门攻击

        实验结果(攻击为can you really backdoor FL)

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        3a 4a 5a 6a无约束攻击,在没有任何来自服务器端的对攻击者约束的情况下完成。即使每轮只有一名攻击者,这种攻击仍能发挥出很好的效果。

        3b 4b 5b 6b范数边界。可以在一定程度上抵御攻击,且对模型可用性没有影响。

        3c 4c 5c 6c弱差分隐私。效果类似范数边界。但该方法隐私预算很高,不能为参与方提供隐私保护。

        3d 4d 5d 6d本地差分隐私。缓解了攻击,但模型可用性较weak-DP差。

        3e 4e 5e 6e中央差分隐私。能更好的消除后门攻击,主任务精度和本地差分隐私差不多。

        实验结果(增加攻击者数量)

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        7a 8a 9a 10a随着攻击者的增多,后门的准确性得到了提高,实用性也降低了。但是从效用的降低中识别后门攻击并不是完全,在EMNIST和CIFAR10中,即使有90名攻击者,实用程序也仅减少到88%和78%左右。在Reddit中,10310名攻击者(占参与者的20%)的效用从19%下降到16%。在Sentiment140中,20%的参与者是攻击者,主要任务的准确率从80%左右降低到70%左右。

        7b 8b 9b 10b减轻了攻击,但与setting1相比可用性有所降低。

        7c 8c 9c 10c较范数裁剪更进一步减轻了攻击

        7d 8d 9d 10d展示了攻击方不应用LDP的情况下的结果,增强了攻击并提高了后门准确性(对后门防御不利影响)

        7e 8e 9e 10e LDP应用于所有参与方,缓解攻击但模型效用较差

        7f 8f 9f 10f 应用CDP,总体上减轻了攻击

推理攻击(Comprehensive privacy analysis of deep learning. 白盒成员推理攻击与Exploiting unintended feature leakage in collaborative learning. 属性推理攻击)

        成员推理攻击

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

        无防御情况:与本地攻击者相比,全局攻击者可以执行更有效的攻击

        范数边界&弱DP:两者对于成员推理攻击的防御均无效

        LDP&CDP:LDP减轻了攻击,即使针对最强大的主动攻击(即隔离梯度),LDP也会将CIFAR100数据集的攻击准确率从91%左右降低到53%左右,在本地被动攻击的情况下,它将Purchase100的攻击准确率从68%左右降低到54%,将Texas100的攻击准确度从66%降低到58%。DP总体上也能成功防御成员推理攻击,由于CDP应用于服务器可信的情况下因此不评估全局攻击的情况,CDP在CIFAR100中将针对被动本地攻击者的攻击准确率从73%降低到58%,在Purchase100中将针对主动本地攻击者的准确率从68%降低到55%。在得克萨斯州100,它通过将攻击准确率从62%降低到54%来缓解被动的局部攻击。

        属性推断攻击

        CDP和LDP对于属性推断攻击的防御均不成功,AUC没有显著变化。

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning,论文阅读,笔记

总结

        是一篇实验性质的文章,对LDP和CDP做了比较详细的实验,尤其是仅在非攻击方上使用LDP能提高后门攻击准确率这一发现还是比较有意义的。文章来源地址https://www.toymoban.com/news/detail-790655.html

到了这里,关于【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LLaMA模型论文《LLaMA: Open and Efficient Foundation Language Models》阅读笔记

    LLaMA是meta在2023年2月开源的大模型,在这之后,很多开源模型都是基于LLaMA的,比如斯坦福大学的羊驼模型。 LLaMA的重点是比通常情况下使用更多的语料,来训练一系列可在各种推理预算下实现可能的最佳性能的语言模型。 摘要翻译:我们在此介绍LLaMA,这是一个参数范围从

    2024年02月15日
    浏览(49)
  • Learning Enriched Features for Fast Image Restoration and Enhancement 论文阅读笔记

    这是2022年TPAMI上发表的大名鼎鼎的MIRNetv2,是一个通用的图像修复和图像质量增强模型,核心是一个多尺度的网络 网络结构整体是残差的递归,不断把残差展开可以看到是一些残差块的堆叠。核心是多尺度的MRB。网络用的损失函数朴实无华: MRB的核心是RCB和SKFF两个模块,先

    2024年02月16日
    浏览(41)
  • Unifying Large Language Models and Knowledge Graphs: A Roadmap 论文阅读笔记

    NLP, LLM, Generative Pre-training, KGs, Roadmap, Bidirectional Reasoning LLMs are black models and can\\\'t capture and access factual knowledge. KGs are structured knowledge models that explicitly store rich factual knowledge. The combinations of KGs and LLMs have three frameworks,  KG-enhanced LLMs, pre-training and inference stages to provide external knowl

    2024年02月19日
    浏览(46)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    这是CVPR2023的一篇用diffusion先验做图像修复和图像增强的论文 之前有一篇工作做了diffusion先验(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但这个模型只能做线性的退化,对于暗图增强这种非线性

    2024年02月15日
    浏览(52)
  • Exposure Normalization and Compensation for Multiple-Exposure Correction 论文阅读笔记

    这是CVPR2022的一篇曝光校正的文章,是中科大的。一作作者按同样的思路(现有方法加一个自己设计的即插即用模块以提高性能的思路)在CVPR2023也发了一篇文章,名字是Learning Sample Relationship for Exposure Correction。 文章的动机是,多曝光图像中,过曝和欠曝的图片的调整方向是

    2024年02月05日
    浏览(55)
  • 【论文阅读笔记】Emu Edit: Precise Image Editing via Recognition and Generation Tasks

    Emu edit是一篇 图像编辑Image Editing 的文章,和instruct pix2pix类似,选择了合成数据作为训练数据,不是zero-shot任务,并进一步将多种任务都整合为生成任务,从而提高模型的编辑能力。本篇文章的效果应该目前最好的,在local和global编辑甚至其他代理任务(分割、边缘检测等)

    2024年02月04日
    浏览(55)
  • 大一统模型 Universal Instance Perception as Object Discovery and Retrieval 论文阅读笔记

    写在前面   马上又是一周周末了,开始写论文博客啦。   这是一篇顶会文章,标题很清楚,就是一个一统的框架用于解决各种任务。这类文章在 21 年的时候挺多的,现在倒是不常见了。因为需要的资源很多,外部数据集也很庞大,一般的小资源团队基本搞不定。但一旦

    2024年02月04日
    浏览(56)
  • SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning论文阅读笔记

    SAFEFL,这是一个利用安全多方计算 (MPC) 来评估联邦学习 (FL) 技术在防止隐私推断和中毒攻击方面的有效性和性能的框架。 传统机器学习(ML):集中收集数据-隐私保护问题 privacy-preserving ML (PPML)采用的隐私保护技术:安全多方计算,同态加密(运算成本高) 联邦学习(FL):

    2024年04月22日
    浏览(53)
  • Llama 2 论文《Llama 2: Open Foundation and Fine-Tuned Chat Models》阅读笔记

    继2023年2月开源Llama之后,2023年7月Meta又开源了模型参数从70 亿到 700 亿不等的Llama 2,并同时开源了针对对话场景优化的LLaMA2-CHAT。LLama2 论文描述了微调和提高LLM安全性的方法以及在模型开发过程中的一些的观察。 论文摘要翻译:在这项工作中,我们开发并开源了 Llama 2,这是

    2024年02月09日
    浏览(51)
  • Ref 系列 UniRef++: Segment Every Reference Object in Spatial and Temporal Spaces 论文阅读笔记

    写在前面   这周得加更两篇论文阅读笔记,完成 2023 的 flag。   此论文也是 Arxiv 比较新的文章,设计了一个大一统模型,解决图像和视频的指代分割问题,应该是篇大佬工作。 论文地址:UniRef++: Segment Every Reference Object in Spatial and Temporal Spaces 代码地址:https://github.com

    2024年02月03日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包