【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting

这篇具有很好参考价值的文章主要介绍了【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

个人阅读笔记,如有错误欢迎指出

Arxiv 2019        [1912.11464] Attack-Resistant Federated Learning with Residual-based Reweighting (arxiv.org)

问题:

        联邦学习容易受到后门攻击

创新:

        提出一种基于残差的重新加权聚合算法

        聚合算法将重复中值回归和加权最小二乘中的加权方案相结合

方法:

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        1)用重复中值估计回归线【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        2)计算本地模型中第个参数的残差,由于对于不同的参数不好比较,因此将标准化

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        3)参数置信度。其中是中的第个参数,,,是超参数本文中定义为2,是置信空间用调整,​是中的第个对角矩阵

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        4)极值矫正。若存在非常大的值即使乘很小的权重也足以威胁到全局模型,引入阈值,若置信值低于\,则用下式矫正

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        5)本地模型权重。通过衡量每个参数的标准差进行聚合

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        6)全局模型

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

        整体算法思路:通过垂直距离(残差)将每个参数重新加权,然后通过累积每个局部模型中的参数置信度来估计每个局部模型的权重

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

实验:

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting,论文笔记,论文阅读,笔记,安全,人工智能,深度学习

读后感:

        优点:

                可以防御放大梯度的后门攻击

                可以防御标签翻转的后门攻击

        局限性:

                牺牲了一定的隐私,与安全聚合策略不兼容文章来源地址https://www.toymoban.com/news/detail-552099.html

到了这里,关于【论文阅读笔记】Attack-Resistant Federated Learning with Residual-based Reweighting的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读笔记—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L

    来源:ACM MM 2021 作者:Yihao Huang1, Qing Guo2†, Felix Juefei-Xu3, Lei Ma4, Weikai Miao1, Yang Liu2,5, Geguang Pu1 单位:1East China Normal University, China 2Nanyang Technological University, Singapore 3Alibaba Group, USA 4University of Alberta, Canada 5 Zhejiang Sci-Tech University, China 邮箱:Yihao Huang’s email: huangyihao22@gmail.com ;

    2024年02月01日
    浏览(47)
  • 【论文阅读——Profit Allocation for Federated Learning】

    由于更为严格的数据管理法规,如《通用数据保护条例》(GDPR),传统的机器学习服务生产模式正在转向联邦学习这一范式。联邦学习允许多个数据提供者在其本地保留数据的同时,协作训练一个共享模型。推动联邦学习实际应用的关键在于如何将联合模型产生的利润公平地

    2024年04月13日
    浏览(52)
  • 【论文阅读】Feature Inference Attack on Shapley Values

    研究背景 近年来,解释性机器学习逐渐成为一个热门的研究领域。解释性机器学习可以帮助我们理解机器学习模型是如何进行预测的,它可以提高模型的可信度和可解释性。Shapley值是一种解释机器学习模型预测结果的方法,它可以计算每个特征对预测结果的贡献程度,从而

    2024年02月15日
    浏览(44)
  • 论文阅读——Imperceptible Adversarial Attack via Invertible Neural Networks

    作者:Zihan Chen, Ziyue Wang, Junjie Huang*, Wentao Zhao, Xiao Liu, Dejian Guan 解决的问题:虽然视觉不可感知性是对抗性示例的理想特性,但传统的对抗性攻击仍然会产生 可追踪的对抗扰动。 代码:https://github.com/jjhuangcs/AdvINN 类型:黑盒 目标攻击, 作者利用可逆神经网络(AdvINN)方法进行

    2024年02月12日
    浏览(40)
  • 论文阅读——Adversarial Eigen Attack on Black-Box Models

    作者:Linjun Zhou, Linjun Zhou 攻击类别:黑盒(基于梯度信息),白盒模型的预训练模型可获得,但训练数据和微调预训练模型的数据不可得(这意味着模型的网络结构和参数信息可以获得)、目标攻击+非目标攻击 白盒+黑盒组合使用,白盒利用了中间表示,黑盒利用了输出得

    2024年02月13日
    浏览(38)
  • 《Secure Analytics-Federated Learning and Secure Aggregation》论文阅读

    背景 机器学习模型对数据的分析具有很大的优势,很多敏感数据分布在用户各自的终端。若大规模收集用户的敏感数据具有泄露的风险。 对于安全分析的一般背景就是认为有n方有敏感数据,并且不愿意分享他们的数据,但可以分享聚合计算后的结果。 联邦学习是一种训练数

    2024年02月07日
    浏览(47)
  • 论文阅读-Federated-Unlearning-With-Momentum-Degradation

    论文阅读-Federated Unlearning With Momentum Degradation 联邦忘却与动量退化 Yian Zhao IEEE Internet of Things Journal 2023 年 10 月 2 日 CCF-C momentum degradation-MoDe 动量退化 memory guidance-记忆引导 knowledge erasure-知识擦除 Deep-learning neural network—DNN深度神经网络 backdoor attacks -后门攻击 degradation model-退

    2024年04月24日
    浏览(63)
  • 【论文阅读】Untargeted Backdoor Attack Against Object Detection(针对目标检测的无目标后门攻击)

    论文题目: Untargeted Backdoor Attack Against Object Detection(针对目标检测的无目标后门攻击) 发表年份: 2023-ICASSP(CCF-B) 作者信息: Chengxiao Luo (清华大学深圳国际研究生院) Yiming Li(清华大学深圳国际研究生院) Yong Jiang(清华大学深圳国际研究生院,鹏程实验室人工智能研

    2024年02月09日
    浏览(38)
  • 【论文笔记 | 异步联邦】Asynchronous Federated Optimization

    Asynchronous Federated Optimization,OPT2020: 12th Annual Workshop on Optimization for Machine Learning,不属于ccfa 任务激活不频繁(比较难以达成条件):对于弱边缘设备,学习任务只在设备空闲、充电、连接非计量网络时执行 通信不频繁:边缘设备和远程服务器之间的连接可能经常不可用、缓

    2024年04月27日
    浏览(41)
  • 论文笔记--FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY

    标题:FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY 作者:Jakub Konecny, H. Brendan McMahan, Felix X. Yu, Ananda Theertha Suresh, Dave Bacon 日期:2016 期刊:arxiv   文章给出了一种联邦学习(federated learning, FL)的新的方法,可以提升多终端之间的交流效率,从而支持多台设备在不稳定

    2024年02月15日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包