高级分布式系统-第15讲 分布式机器学习--联邦学习

这篇具有很好参考价值的文章主要介绍了高级分布式系统-第15讲 分布式机器学习--联邦学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

高级分布式系统汇总:高级分布式系统目录汇总-CSDN博客

联邦学习

两种常见的架构:客户-服务器架构和对等网络架构

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络

联邦学习在传统的分布式机器学习基础上的变化。

传统的分布式机器学习:在数据中心或计算集群中使用并行训练,因为有高速通信连接,所以通信开销相对很小,计算开销将会占主导地位。

联邦学习:通信需要依靠互联网,甚至是无线网络,所以通信代价是占主导地位的。

减少通信轮次的方法

增加并行度:加入更多的参与方,让它们在通信轮次间各自独立地进行模型训练。

增加每一个参与方中的计算:每一个参与方可以在两个通信轮次之间进行更复杂的计算。

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络

最经典的联邦学习算法——FedAvg

1、服务器初始化训练模型,并随机选择所有客户端中的一部分将模型广播给被选择的用户。

2、被选择的客户端先将接受到的模型作为初始化模型,在利用本地数据进行训练,然后将结果上传给服务器。

3、服务器聚合收到的模型,然后再随机选择所有客户端中的一部分,将模型广播给被选择的用户。

4、重复2和3,直至模型收敛。

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络

FedAvg存在的两个缺陷:

 设备异质性:不同的设备间的通信和计算能力是有差异的。在FedAvg中,被选中的客户端在本地都训练相同的epoch,虽然作者指出提升epoch可以有效减小通信成本,但较大的epoch下,可能会有很多设备无法按时完成训练。无论是直接drop掉这部分客户端的模型还是直接利用这部分未完成的模型来进行聚合,都将对最终模型的收敛造成不好的影响。

 数据异质性:不同设备中数据可能是非独立同分布的。如果数据是独立同分布的,那么本地模型训练较多的epoch会加快全局模型的收敛;如果不是独立同分布的,不同设备在利用非IID的本地数据进行训练并且训练轮数较大时,本地模型将会偏离初始的全局模型。

FedProx——FedAvg的改进

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络

异步与同步联邦学习的结合

Resource-Efficient Federated Learning with Hierarchical Aggregation in Edge Computing(IEEE INFOCOM 2021)

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络

联邦学习算法的优化分类方法

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络

联邦学习涉及的应用研究

高级分布式系统-第15讲 分布式机器学习--联邦学习,分布式,机器学习,人工智能,高级分布式系统,神经网络文章来源地址https://www.toymoban.com/news/detail-791362.html

到了这里,关于高级分布式系统-第15讲 分布式机器学习--联邦学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 高级分布式系统-第14讲 分布式控制经典理论

    高级分布式系统汇总:高级分布式系统目录汇总-CSDN博客 模糊控制是一种以模糊集合论、模糊语言变量以及模糊逻辑推理为数学基础的控制方法,它模拟人的思维,构造一种非线性控制,以满足复杂的不确定的过程控制的需要,属于智能控制范畴。 由于模糊控制是对人的思维

    2024年02月01日
    浏览(40)
  • 高级分布式系统-第12讲 分布式控制经典理论

    高级分布式系统汇总:高级分布式系统目录汇总-CSDN博客 分布式控制系统的设计,是指在给定系统性能指标的条件下,设计出控制器的控制规律和相应的数字控制算法。 根据偏差的比例(Proportional)、积分(Integral)、微分(Derivative)进行控制(简称PID控制),一种广泛应用

    2024年01月20日
    浏览(50)
  • 第十二届“中国软件杯”大赛:A10-基于机器学习的分布式系统故障诊断系统——baseline(一)

    在分布式系统中某个节点发生故障时,故障会沿着分布式系统的拓扑结构进行传播,造成自身节点及其邻接节点相关的KPI指标和发生大量日志异常。本次比赛提供分布式数据库的故障特征数据和标签数据,其中特征数据是系统发生故障时的KPI指标数据,KPI指标包括由feature0、

    2024年02月11日
    浏览(46)
  • 高级分布式系统-第11讲 现场总线技术

    高级分布式系统汇总:高级分布式系统目录汇总-CSDN博客 国际电工委员会制定的国际标准IEC61158对现场总线(fieldbus)的定义是: 安装在制造或过程区域的现场装置与控制室内的自动控制装置之间的数字式、串行、多点通信的数据总线。 新型的现场总线控制系统突破了DCS系统

    2024年01月20日
    浏览(41)
  • 高级分布式系统-第9讲 实时调度--可调度性分析

    高级分布式系统汇总:高级分布式系统目录汇总-CSDN博客 分布式实时系统中,很多任务同时尝试访问共享资源(如处理器和网络),调度试图有效地利用这些资源来解决问题,以保证系统是正确的,换句话说是保证系统符合其所有的时间限制。 调度的运行可以采取操作系统形

    2024年01月20日
    浏览(43)
  • 机器学习洞察 | 分布式训练让机器学习更加快速准确

    机器学习能够基于数据发现一般化规律的优势日益突显,我们看到有越来越多的开发者关注如何训练出更快速、更准确的机器学习模型,而分布式训练 (Distributed Training) 则能够大幅加速这一进程。 亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档

    2024年02月16日
    浏览(48)
  • 分布式机器学习(Parameter Server)

    分布式机器学习中,参数服务器(Parameter Server)用于管理和共享模型参数,其基本思想是将模型参数存储在一个或多个中央服务器上,并通过网络将这些参数共享给参与训练的各个计算节点。每个计算节点可以从参数服务器中获取当前模型参数,并将计算结果返回给参数服务器

    2024年02月06日
    浏览(37)
  • 读发布!设计与部署稳定的分布式系统(第2版)笔记15_快速失败和替换

    5.4.1.1. 必须为崩溃定义边界 5.4.1.2. 发生崩溃的组件应该是独立的,系统的其余部分必须能够自我防护,避免受到层叠失效的影响 5.4.1.3. 在微服务架构中,服务的整个实例可能是正确的崩溃粒度 5.4.1.4. 在Erlang和Elixir中,崩溃的自然边界就是actor 5.4.2.1. actor这样的进程内组件

    2024年02月11日
    浏览(43)
  • 机器学习分布式框架ray tune笔记

    Ray Tune作为Ray项目的一部分,它的设计目标是简化和自动化机器学习模型的超参数调优和分布式训练过程。Ray Tune简化了实验过程,使研究人员和数据科学家能够高效地搜索最佳超参数,以优化模型性能。 Ray Tune的主要特点包括: 超参数搜索空间规范 : Ray Tune允许您使用多种方

    2024年02月15日
    浏览(44)
  • 王益分布式机器学习讲座~Random Notes (1)

    并行计算是一种同时使用多个计算资源(如处理器、计算节点)来执行计算任务的方法。通过将计算任务分解为多个子任务,这些子任务可以同时在不同的计算资源上执行,从而实现加速计算过程并提高计算效率。 并行计算框架是一种软件工具或平台,用于管理和协调并行计

    2024年02月12日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包