DENSE: Data-Free One-Shot Federated Learning论文笔记

这篇具有很好参考价值的文章主要介绍了DENSE: Data-Free One-Shot Federated Learning论文笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

摘要

DENSE的主要特点

  1. 单轮通信学习
    • DENSE允许中央服务器在单次通信轮次中学习全局模型,有效降低了通信成本。
  2. 现有单轮FL方法的局限性
    • 大多数现有的单轮FL方法不切实际或存在固有限制,例如需要公共数据集,客户端模型同质化,以及需要上传额外的数据或模型信息。
  3. DENSE的创新解决方案
    • 采用两阶段框架:数据生成阶段和模型蒸馏阶段。

      数据生成阶段:使用客户端上传的本地模型集合训练生成器(训练了一个同时考虑相似性、稳定性和可转移性的生成器),生成合成数据。

      模型蒸馏阶段:将集合模型的知识蒸馏到全局模型中。

    • 无需额外信息交换:只需在客户端和服务器之间传输模型参数。

    • 无需辅助数据集:不需要额外的训练数据。

    • 考虑模型异质性:适应不同客户端拥有不同的模型架构。

DENSE的实际应用优势

  • 实际应用中的适用性:DENSE方法能够在现实世界中应用,解决了传统FL方法的一些核心问题。
  • 实验结果证明其优越性
    • 在多个真实世界数据集上的实验显示了DENSE的优越性。
    • 在CIFAR10数据集上,DENSE比最佳基线方法Fed-ADI性能高出5.08%。

背景

单轮FL的挑战

  1. 单轮FL的动机:在某些场景中,如模型市场,多轮训练不切实际。此外,频繁通信增加了被攻击的风险。比如模型市场[45],用户只能从市场购买训练前的模型,没有任何真实的数据。此外,频繁的通信造成了被攻击的高风险。例如,频繁的通信很容易被攻击者截获,攻击者可以发起中间人攻击[47],甚至可以通过梯度[54]重建训练数据。这样一来,一次性FL由于其“一轮”特性,可以降低被恶意攻击者拦截的概率。因此,在本文中,我们主要关注的是一次性FL。
  2. 现有单轮FL方法的局限性:例如需要公共数据集,只支持同质化模型,以及可能导致隐私泄露和额外通信成本。
  3. 异质性的考虑:现有方法通常不考虑模型异质性,即不同客户可能有不同的模型架构。

Method

我们提出了一种名为DENSE的新方法,该方法在考虑模型异质性的同时,不需要共享额外的信息或依赖任何辅助数据集,即可进行一次性FL。学习过程如图1所示,DENSE的整个训练过程如图算法1所示。DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

数据生成阶段

  1. 随机噪声:从随机噪声开始,这是生成合成数据的初始输入。
  2. 生成器:噪声通过一个训练有素的生成器,生成合成数据。
  3. 合成数据:生成器输出的合成数据将被用于模型蒸馏阶段。
  4. 集合模型:集合模型由客户端上传的本地模型组成,这些模型固定不变,并用来指导生成器的训练。
  5. 平均对数(Avg logits):来自集合模型的输出被平均,生成一个统一的输出预测。
  6. 损失计算:合成数据和随机标签被用来计算交叉熵损失和批量归一化(BN)损失。
  7. 反向传播:损失通过反向传播更新生成器的参数。

模型蒸馏阶段

  1. 合成数据:在数据生成阶段训练好的生成器再次产生合成数据。
  2. 集合模型:固定的集合模型产生对合成数据的预测输出。
  3. 平均对数:这些预测输出被平均,并作为知识蒸馏的基础。
  4. 全局模型:全局模型接收合成数据,并生成自己的预测输出(logits)。
  5. KL损失:计算全局模型预测和集合模型平均预测之间的Kullback-Leibler损失。
  6. 反向传播:KL损失用于更新全局模型的参数。

工作流程概述

  1. 初始化:所有客户端并行更新它们的本地模型,然后将这些模型参数上传至中央服务器。
  2. 训练生成器:服务器采用这些模型参数作为集合模型,使用随机噪声和标签来训练一个生成器,该生成器学会生成类似于真实数据的合成数据。
  3. 模型蒸馏:生成器产生的合成数据被用于训练全局模型,这个过程包括将集合模型的知识(通过平均logits表示)转移到全局模型上。
  4. 反复迭代:这两个阶段在多个周期(epoch)中反复进行,每个周期包含多轮生成器训练($T_G$)和模型蒸馏。
  5. 最终模型:经过多个训练周期后,全局模型学习到了集合模型的知识,并准备在现实世界数据上进行预测。

这个流程旨在提高全局模型的性能,同时减少了对真实数据的需求,这对于保护隐私和减少通信成本尤为重要。通过这种方式,DENSE方法在只需单次通信的情况下,允许客户端保持它们的数据隐私,同时仍能共同训练出一个强大的全局模型。

Data Generation

数据生成阶段的目标

  1. 生成合成数据:目标是训练一个生成器来产生与客户端训练数据分布相似的合成数据。
  2. 保护隐私信息:生成的数据不应泄露任何客户端的敏感信息,即使在面对攻击者时也应确保隐私信息的安全。
  3. 考虑模型异质性:在实际应用中,客户端模型可能具有不同的架构,这需要在生成数据时加以考虑。

数据生成方法

  1. 利用集合模型:使用客户端上传的一系列训练良好的模型作为基础来训练生成器。
  2. GAN的局限性:虽然最近有研究使用预训练的生成对抗网络(GAN)来生成数据,但由于这些GAN是在公共数据集上训练的,其生成的数据分布可能与客户端的训练数据不同。
  3. 生成器训练
    • 输入:随机噪声 z(来自标准高斯分布)和随机的独热编码标签 y(来自均匀分布)。
    • 过程:生成器 G(⋅) 使用这些输入生成合成数据 x^=G(z),以使得 x^ 与客户端带有标签 y 的训练数据相似。
  • 因为是合成图片,所以攻击者无法从合成图片中取得任何客户端信息
  • 生成器必须具有相似、稳定、可迁移的能力,因此使用三个损失函数
  • 将噪音图片输入生成器得到合成图片,再将合成图片送入客户端模型中计算平均logits值,选取logits而不是Pred的类别是因为Pred会泄露客户端信息,然后与随机标签计算交叉熵,该损失函数相当于用于分类的主损失函数,但只有该损失函数无法取得良好训练,因为客户端存在non-IID数据

相似性

首先,我们需要考虑合成数据ˆx与训练数据之间的相似性。由于我们无法访问到客户端的训练数据,所以我们无法直接计算合成数据与训练数据的相似度。DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

交叉熵损失的最小化旨在训练生成器,以使集合模型能够以高概率将合成图像分类到某个特定类别。

相似性计算的逻辑

  1. 间接相似性
    • 如果合成数据 x^ 能够被集合模型准确分类,这意味着它们在分布上与训练数据相似。
    • 通过最小化合成数据和随机标签之间的交叉熵损失,合成数据被引导以更贴近客户端实际数据的方式生成。
  2. 隐私保护
    • 由于不直接比较合成数据和实际训练数据,这种方法减少了客户端敏感信息泄露的可能性。

挑战

  1. 非IID数据
    • 集合模型是在非IID数据上训练的,因此仅使用交叉熵损失可能导致生成器不稳定,陷入次优的局部最小值或过拟合于合成数据。

稳定性

其次,为了提高生成器的稳定性,我们建议增加一个额外的正则化来稳定训练。特别地,我们利用批归一化损失使合成数据符合批归一化统计量DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

转移性问题的核心:

  • 合成数据与决策边界的关系:通过使用交叉熵(CE)损失和批量归一化(BN)损失,虽然可以训练出能够生成合成数据的生成器,但观察到这些合成数据通常距离集合模型(作为教师模型)的决策边界较远。这导致了一个问题:教师模型难以将其知识有效地传递给全局模型(即学生模型)。我们的目标是学习全局模型的决策边界,并对真实的测试数据(蓝钻)具有较高的分类精度。DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

知识蒸馏的本质:

  • 决策边界信息的转移:知识蒸馏的本质是将教师模型的决策边界信息传递给学生模型。决策边界是模型用来区分不同类别的界线。

解决方法:

  • 引入边界支持损失:为了解决上述问题,提出了一种新的边界支持损失。这种损失鼓励生成器生成更多位于集合模型和全局模型决策边界之间的合成数据。

  • 合成数据的两个集合

    1. 第一集合:全局模型和集合模型对数据的预测相同(表示这些数据在两个决策边界的同一侧)。
    2. 第二集合:两模型对数据的预测不同(表示这些数据位于两个决策边界之间)。
    3. 损失函数:
    DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

    对第一集合中的数据输出0,对第二集合中的数据输出1。

    目的:通过最大化 KL 散度损失,生成器可以生成对模型蒸馏阶段更有帮助的合成数据,从而提高集合模型的知识转移能力。

    关键在于通过引入新的损失函数(边界支持损失),使得生成器能够产生更有助于全局模型学习集合模型决策边界的合成数据。DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

将上述损失综合,可得生成器的损失如下DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

Model Distillation

模型蒸馏阶段的目标

  1. 使用集合模型和生成器训练全局模型:在此阶段,全局模型(学生模型)通过结合先前讨论的生成器产生的合成数据和集合模型(教师模型)的知识进行训练。

模型蒸馏的方法

  1. 集合模型作为教师:受先前研究启发,提出使用集合模型作为教师来训练全局模型(学生模型)。
  2. 传统聚合方法的局限性
    • 传统的参数聚合方法(如FedAvg)在处理不同架构的模型时受限。
    • 非IID数据的存在使得FedAvg无法提供良好的性能,甚至可能导致性能分歧。
  3. 知识蒸馏的实施
    • 通过最小化集合模型和全局模型在相同合成数据上的预测之间的差异来蒸馏知识。
    • 使用平均对数(Eq. (1))来计算合成数据的预测,并应用于知识蒸馏。
    • 这种方法适用于异质和同质的联合学习系统。
  4. 目标函数
  • 使用Kullback-Leibler(KL)损失函数DENSE: Data-Free One-Shot Federated Learning论文笔记,联邦学习,论文阅读,算法,人工智能

来最小化集合模型和全局模型之间的差异。

DENSE的兼容性和灵活性

  1. 无限制的客户端本地模型:客户端可以使用任意技术训练他们的本地模型。
  2. 兼容性:DENSE可以与任何本地训练技术结合使用,以进一步提高全局模型的性能。

在DENSE框架的模型蒸馏阶段,通过使用集合模型(作为教师模型)和合成数据来训练全局模型(学生模型),克服了传统聚合方法在异质模型和非IID数据背景下的局限性。这一阶段通过最小化KL损失来实现知识蒸馏,使全局模型能够学习集合模型的知识,同时允许客户端模型的多样性和灵活性。这种方法强调了DENSE在实际应用中的广泛适用性和高度兼容性。

隐私保护方面的讨论

  1. 隐私泄露的风险
    • 使用生成对抗网络(GANs)攻击:存在恶意用户利用 GANs 重建其他参与者私有数据集的样本的风险。
    • 模型交换:在FL中,服务器和客户端之间交换模型可能导致潜在的隐私泄露。
  2. 本文方法的隐私保护措施
    • 生成器不直接接触真实数据:这减少了直接泄露私有数据的风险。
    • 单轮通信:只进行一次通信轮次,从而降低隐私泄露的风险。
    • 展示生成的图像:这些图像不直接泄露任何真实数据的信息。
  3. 未来工作
    • 可以将现有的多种隐私保护方法融入到本框架中,以更好地保护客户端免受对手的攻击。

知识蒸馏方面的讨论

  1. 传统FL中的模型异质性问题
    • 在传统FL框架中,所有用户必须同意全局模型的特定架构。
    • Li等人提出了一种允许参与者独立设计模型的新FL框架,使用知识蒸馏。
  2. 代理数据集的局限性
    • 使用代理数据集进行知识蒸馏可以缓解非IID数据引起的模型漂移问题,但这种方法在实际应用中不总是可行的,因为服务器上不总是有精心设计的数据集可用。
  3. 无数据知识蒸馏
    • 这是一个有前景的方法,可以在没有任何真实数据的情况下将教师模型的知识传递给学生模型。
    • Lin等人提出了一种通过合成数据进行模型融合的无数据集合蒸馏方法,尽管这种方法在每轮通信中需要较高的通信和计算成本。
    • 本文更关注在异质模型情况下通过单轮通信获得良好的全局模型,这是更具挑战性和实用性的。
  4. 针对FL的无数据知识蒸馏的问题
    • Zhu等人提出了一种FL的无数据知识蒸馏方法,其中学习的生成器来自于本地模型的预测。
    • 但是,这种方法需要将学习的生成器广播给所有客户端,然后客户端需要将它们的生成器发送给服务器,这增加了通信负担。
    • 生成器直接访问本地数据可能会引起隐私问题。

总体分析

这段文字强调了在设计联合学习算法时考虑隐私保护和知识蒸馏的重要性。它指出了现有方法的限制,并提出了改进方案,特别是在处理模型异质性和减少通信成本方面。本文方法通过在中央服务器上存储生成器并限制其对真实本地数据的访问,有效地增强了隐私保护。同时,通过只进行一次通信轮次,减少了隐私泄露的风险,同时降低了通信成本。文章来源地址https://www.toymoban.com/news/detail-784649.html

到了这里,关于DENSE: Data-Free One-Shot Federated Learning论文笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • tune a video:one-shot tuning of image diffusion models for text-to-video generation

    【Diffusion Models】新加坡国立大学、腾讯强强联手Tune-A-Video:One-Shot微调图像扩散模型用于文本到图像的生成!_哔哩哔哩_bilibili 【Diffusion Models】新加坡国立大学、腾讯强强联手Tune-A-Video:One-Shot微调图像扩散模型用于文本到图像的生成!共计2条视频,包括:[论文代码阅读]T

    2023年04月11日
    浏览(51)
  • few-shot / one shot / zero shot object counting论文汇总

    code: https://paperswithcode.com/paper/class-agnostic-counting 摘要:几乎所有现有的计数方法都是为一个特定的对象类而设计的。然而,我们的工作旨在创建一个能够计数任何类对象的计数模型。为了实现这一目标,我们将计数表述为一个匹配问题,使我们能够利用对象计数问题中自然存

    2024年02月09日
    浏览(46)
  • 联邦学习((Federated Learning,FL)

    每日一诗: 题竹(十三岁应试作于楚王孙园亭) ——明*张居正 绿遍潇湘外,疏林玉露寒。 凤毛丛劲节,只上尽头竿。 近期在阅读联邦学习领域相关文献,简单介绍如下文。本文仅供学习,无其它用途。如有错误,敬请批评指正! 一、联邦学习(Federated Learning,FL): 举目

    2024年02月06日
    浏览(43)
  • 【论文阅读——Profit Allocation for Federated Learning】

    由于更为严格的数据管理法规,如《通用数据保护条例》(GDPR),传统的机器学习服务生产模式正在转向联邦学习这一范式。联邦学习允许多个数据提供者在其本地保留数据的同时,协作训练一个共享模型。推动联邦学习实际应用的关键在于如何将联合模型产生的利润公平地

    2024年04月13日
    浏览(52)
  • 【联邦学习(Federated Learning)】- 横向联邦学习与联邦平均FedAvg

    横向联邦学习也称为 按样本划分的联邦学习 ,可以应用于联邦学习的各个参与方的数据集有相同的特征空间和不同的样本空间的场景,类似于在表格视图中对数据进行水平划分的情况。 例如,两个地区的城市商业银行可能在各自的地区拥有非常不同的客户群体,所以他们的

    2023年04月19日
    浏览(45)
  • 论文笔记--FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY

    标题:FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY 作者:Jakub Konecny, H. Brendan McMahan, Felix X. Yu, Ananda Theertha Suresh, Dave Bacon 日期:2016 期刊:arxiv   文章给出了一种联邦学习(federated learning, FL)的新的方法,可以提升多终端之间的交流效率,从而支持多台设备在不稳定

    2024年02月15日
    浏览(48)
  • Personalize Segment Anything Model with One Shot【论文翻译】

    ​ https://arxiv.org/pdf/2305.03048.pdf https://github.com/ZrrSkywalker/Personalize-SAM 通过大数据预训练驱动,分段任意模型(Segment Anything Model,SAM)已被证明是一个强大且可提示的框架,革新了分割模型。尽管其具有普遍性,但在没有人力提示的情况下,定制SAM以适应特定的视觉概念仍未得

    2024年02月12日
    浏览(46)
  • DBA: DISTRIBUTED BACKDOOR ATTACKS AGAINST FEDERATED LEARNING 论文阅读笔记

      目录 摘要 一、引言 1.背景(介绍联邦学习的出现,同时引出挑战) 2.研究现状 3.提出方法 4.贡献总结 二、DBA方法介绍 1.总体框架 2.DBA 3.DBA的触发因素 三、实验 1.数据集和实验设置 2.分布式后门攻击VS集中式后门攻击 3.实验准备 4.实验结果 5.分布式攻击的鲁棒性 6.通过特征

    2024年01月24日
    浏览(48)
  • 论文阅读《Learning Adaptive Dense Event Stereo from the Image Domain》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Cho_Learning_Adaptive_Dense_Event_Stereo_From_the_Image_Domain_CVPR_2023_paper.html   事件相机在低光照条件下可以稳定工作,然而,基于事件相机的立体方法在域迁移时性能会严重下降。无监督领域自适应作为该问题的一种解决方法,传统的

    2024年02月04日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包