【论文笔记 | 异步联邦】 FedBuff

这篇具有很好参考价值的文章主要介绍了【论文笔记 | 异步联邦】 FedBuff。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 论文信息

Federated Learning with Buffered Asynchronous Aggregation,International Conference on Artificial Intelligence and Statistics,2022,ccfc

2. introduction

2.1.1. 背景:

同步 FL ,随训练过程中的客户端数量的增多,模型性能 和 训练速度 的收益 会下降,类似于大批量训练;异步 FL 缓解了 Scalability (可扩展性),但是异步 FL 来一个聚合一个,与安全聚合不兼容,会导致 Privacy 问题。

2.1.2. 挑战:Scalability、Privacy
2.1.3. 解决的问题:
  • Scalability:加缓冲机制优化异步聚合,具体:服务器在执行服务器更新之前将K个客户端更新聚合到安全缓冲区中
  • Privacy:SecAgg 使得诚实但好奇的服务器无法看到单个客户机的更新;在服务器上执行DP裁剪和噪声添加,保护客户机的数据免受基于计算的输入和输出的观察,从而提供更好的隐私-效用权衡。
2.1.4. 贡献点:
  • 提出一种新的异步联邦优化框架FedBuff,具有 缓冲 异步聚合,通过 安全聚合 差分隐私 实现对诚实但好奇的威胁模型的 可扩展性隐私性
  • 给出了FedBuff在光滑非凸环境下的收敛性分析。当客户端采取Q个本地SGD步骤时,FedBuff需要的服务器迭代,以达到的准确度
  • 实验验证 即使没有惩罚掉队者,FedBuff 也比同步FL算法效率高3.8。FedBuff 比文献中最接近的异步FL算法 FedAsync (Xie et al, 2019) 效率高2.5倍。K = 10是跨基准测试的良好设置,不需要调优
  • 第一个提出与 SecAgg 和全局用户级 DP 兼容的异步联邦优化框架

3. Background

3.1.1. 同步FL

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

如图:当并发训练的用户数超过 100 时收益递减。例如,将并发性增加10倍(100 - > 1000)将使通信轮数减少不到2倍。类似于大批训练,增加批大小最终会带来递减的回报

最优的服务器学习率随着并发性的增加而增加,高并发性意味着对更多用户进行聚合,这样能够减少方差,使服务器“迈出”更大的步,减少达到目标精度所需的轮数。然而,为了获得稳定、收敛的训练结果,服务器学习率不能无限增加,并发聚合的用户数也不能无限增加;最终会饱和。

3.1.2. 异步FL

每次客户端更新完成都强制服务器更新,这样的聚合方式不满足安全聚合的条件,此外,在AsyncFL中提供用户级DP仅适用于本地差分隐私(LDP),其中客户端剪辑模型更新并在将其发送到 Server 之前在本地添加噪声

3.1.3. SecAgg :将单个客户端 i 的更新放在一组客户端更新的集合中,通过混淆客户端 i 和其他客户端的更新增强隐私
3.1.4. DP:先求偏导,对偏导进行裁剪得到相邻数据集,再添加噪声

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

DP的实现依赖于 服务器使用 SecAgg

4. 问题描述:System model/架构/对问题的形式化描述

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

找到一个在(加权)平均值上很好地拟合所有客户数据的模型

5. 解决方法

5.1. 执行流程:

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

5.2. 挑战问题怎么解决:

添加缓冲机制提高可扩展性,在缓冲机制的前提下,用差分隐私实现安全聚合,提高隐私

5.3. 性能保证(performance guarantee):理论分析,使用什么理论,怎么分析/解决

暂时先跳过

5.4. Practical Improvements

5.4.1. Staleness scaling.

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

控制过时度 Ti(t) 对 客户端 i 更新服务器 t 的贡献影响

5.4.2. Learning rate normalization

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

同步与异步 FL ,两种方式对客户端来讲 round 的定义不同,但服务器规定的批处理大小 B 对所有客户端都相同。

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

其中

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

是用于该步骤的实际批处理大小

6. 效果:重点是实验设计,每一部分实验在验证论文中的什么结论

6.1. 实验设置

6.1.1. 数据集、模型、任务

Sent140是文本分类数据集(二元情感分析)

CelebA和CIFAR-10是图像分类数据集(多类分类)

  • 对于Sent140,在660,120个客户端上训练LSTM分类器,其中每个Twitter帐户对应一个客户端。
  • 对于CelebA,在9,343个客户端上训练与LEAF相同的卷积神经网络分类器,按照(Hsieh et al .(2020))的建议,将批处理归一化层替换为组归一化层(Wu and He(2018))
  • 对于CIFAR-10,使用参数为0.1的Dirichlet分布生成5000个非id客户端,方法与(Hsu等)中相同
    对比实验
6.1.2. 实验设置

用三种不同的种子重复每个实验,并取平均值。对于异步FL,假设客户端以恒定的速率到达,从半正态分布中采样延迟分布,即客户端下载和上传操作之间的时间延迟。选择这个分布是因为它最符合在生产FL系统中观察到的延迟分布

6.2. 对比实验(实验部分暂时没有深入去看,想的是用到的话再回来仔细看)

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

频繁更新服务器模型的好处超过了客户端模型更新过时的成本

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读


超参数确定实验

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

【论文笔记 | 异步联邦】 FedBuff,联邦学习,论文阅读

7. (备选)自己的思考

论文对你的启发,包括但不限于解决某个问题的技术、该论文方法的优缺点、实验设计、源码积累等。

背景:

挑战:

问题:

相关工作:

算法:

实验



 


 文章来源地址https://www.toymoban.com/news/detail-859891.html

到了这里,关于【论文笔记 | 异步联邦】 FedBuff的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 联邦学习FL+激励机制+区块链论文阅读3

    FIFL: A Fair Incentive Mechanism for Federated Learning FL公平激励机制(多中心FL,无区块链) 论文资源已免费上传 1)没有与其花费的资源相匹配的奖励,设备就没有兴趣参加训练。 2)防范恶意员工——上传无意义的更新进行破坏,防范低水平与搭便车者——获得奖励大于为系统带来的

    2024年02月02日
    浏览(54)
  • 【联邦学习论文阅读】常用算法理解(SCAFFOLD、FedPD、FedBN)-目前仅SCAFFOLD

    SCAFFOLD(ICML-2020):SCAFFOLD: Stochastic Controlled Averaging for Federated Learning FedPD:https://arxiv.org/abs/2005.11418 FedBN(ICLR 2021):FEDBN: FEDERATED LEARNING ON NON-IID FEATURES VIA LOCAL BATCH NORMALIZATION 1… 梯度 实际上是对用户数据进行函数变换,在训练数据时携带信息,可能有泄露梯度隐私的风险。

    2023年04月20日
    浏览(47)
  • 关于边缘联邦学习的研究方向以及现状综述阅读笔记

    预准备知识: 什么是联邦学习? 联邦学习非常适合边缘计算应用程序,可以利用 边缘服务器计算能力 以及在广泛 分散的边缘设备上收集数据 。 为了建立联邦边缘学习系统,需要应对多种技术挑战。 联邦学习(Federated Learning):技术角度的理解 综述原文链接: A survey of

    2024年02月02日
    浏览(51)
  • 【阅读笔记】联邦学习实战——用FATE从零实现横向逻辑回归

    FATE是微众银行开发的联邦学习平台,是全球首个工业级的联邦学习开源框架,在github上拥有近4000stars,可谓是相当有名气的,该平台为联邦学习提供了完整的生态和社区支持,为联邦学习初学者提供了很好的环境,否则利用python从零开发,那将会是一件非常痛苦的事情。本篇

    2023年04月26日
    浏览(68)
  • 《横向联邦学习中 PCA差分隐私数据发布算法》论文算法原理笔记

    论文地址:https://www.arocmag.com/article/01-2022-01-041.html 论文摘要      为了让不同组织在保护本地敏感数据和降维后发布数据隐私的前提下,联合使用 PCA进行降维和数据发布,提出 横向联邦 PCA差分隐私数据发布算法 。引入随机种子联合协商方案,在各站点之间以较少通信代

    2024年02月08日
    浏览(39)
  • FedAT:异步更新联邦学习方法

    文章链接:FedAT: A Communication-Efficient Federated Learning Method with Asynchronous Tiers under Non-IID Data 发表会议: SC’21 (International Conference for High Performance Computing, Networking, Storage, and Analysis) 高性能计算,体系结构领域顶级会议,CCF-A 联邦学习(Federated Learning, FL )涉及在大规模分布式设备上

    2024年02月06日
    浏览(38)
  • 对比学习论文阅读:CoCLR算法笔记

    标题:Self-supervised Co-training for Video Representation Learning 会议:NIPS2020 论文地址:https://dl.acm.org/doi/abs/10.5555/3495724.3496201 官方代码:https://www.robots.ox.ac.uk/~vgg/research/CoCLR/ 作者单位:牛津大学 本文的研究目标是纯视觉的自监督视频表征学习。我们做出了以下贡献:①我们研究了在

    2024年02月03日
    浏览(62)
  • 课题学习(九)----阅读《导向钻井工具姿态动态测量的自适应滤波方法》论文笔记

       引言直接从原论文复制,大概看一下论文的关键点: 垂直导向钻井工具在近钻头振动和工具旋转的钻井工作状态下,工具姿态参数的动态测量精度不高。为此,通过理论分析和数值仿真,提出了转速补偿的算法以消除工具旋转对测量的影响; 采用最小均方算法( Least Mea

    2024年02月07日
    浏览(74)
  • 论文阅读:Vary论文阅读笔记

    论文:Vary: Scaling up the Vision Vocabulary for Large Vision-Language Models Paper | Github | Demo 许久不精读论文了,内心一直想找个专门的时间来细细品读自己感兴趣的论文。现在想来,无异于是自己骗自己了,因为根本就不存在那个专门的时间。所以改变最好的时候就是现在。 因为自己一

    2024年01月19日
    浏览(46)
  • 【论文导读】- FederatedScope-GNN(FederatedScope-GNN:迈向统一、全面、高效的联邦图学习包)

    原文地址:https://doi.org/10.1145/3534678.3539112 The incredible development of federated learning (FL) has benefited various tasks in the domains of computer vision and natural language processing, and the existing frameworks such as TFF and FATE has made the deployment easy in real-world applications. However, federated graph learning (FGL), even thou

    2024年01月20日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包