《A Credible and Fair Federated Learning FrameworkBased on Blockchain》基于区块链的可信、公平的联邦学习框架

这篇具有很好参考价值的文章主要介绍了《A Credible and Fair Federated Learning FrameworkBased on Blockchain》基于区块链的可信、公平的联邦学习框架。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

期刊:IEEE Transactions on Artificial Intelligence

作者:Leiming Chen;Dehai Zhao;Liping Tao;Kai Wang;Sibo Qiao;Xingjie Zeng;Chee Wei Tan

时间:2024.1.17



主要研究

1)提出了一个可信且公平的联邦学习计算框架,通过区块链技术和智能合约机制保证整个联邦任务过程的安全。

2)提出了一种基于模型特征融合的恶意客户端识别方法,以实现联邦学习中安全的全局模型聚合。

3)提出了一种基于Shapley值的改进方法,该方法结合了客户样本数量和模型质量来公平地评估客户贡献。

4)设计了不同的客户端攻击场景来验证框架的可靠性、设计了不同的客户端攻击场景来验证框架的可靠性。

贡献评价

现有评估联邦学习贡献的方法包括自我报告法沙普利值法(Shapley Value)和客户声誉法

自我报告法:参与的客户准确地报告他们的数据和计算资源,任务发起者分析报告以实现客户贡献评估。

沙普利值法:分三步计算客户贡献,首先计算客户参与全局模型融合的价值。然后,计算不参与的价值。最后,使用两种场景的差异来计算客户的边际贡献。

客户声誉法:主要通过评估联邦任务中每个客户的行为来计算客户的声誉值,最终实现合理的奖励分配通过每个客户的声誉价值。

如何识别恶意客户端并实现安全可信的全局模型的聚合?

如何评估客户的贡献并实现公平的奖励分配?

如何保证联邦任务全过程的安全可信?

(1)FedCFB的架构设计

《A Credible and Fair Federated Learning FrameworkBased on Blockchain》基于区块链的可信、公平的联邦学习框架,人工智能

FedCFB框架由联邦层、区块链层、客户端层组成。联邦层负责协调和调度所有联邦任务,区块链层负责存储联邦任务信息、客户端模型、奖励等,客户端层主要执行联邦任务。

在FedCFB框架中,任务发布者创建联合任务并邀请其他客户端加入。当客户端收到任务消息时,根据自己的计算和数据资源决定是否参与。任务发布者负责整个联邦任务,并根据每个客户端的贡献分配奖励。整个过程概述如下:

  1. 任务创建阶段:任务发布者制定任务描述,包括任务信息、模型、数据类型和奖励详情。接下来,任务发布者广播任务并形成联邦任务块,将任务信息写入区块链。
  2. 任务初始化阶段:其他参与者收到广播消息,根据自己的计算和数据资源选择加入任务。
  3. 客户端选择阶段:任务发布者检查区块链上每个参与者的信誉记录,并根据信誉记录选择客户端。任务发布者将初始化模型发送给候选客户端。
  4. 模型训练阶段:选定的客户使用本地数据来训练模型。当模型训练完成后,每个客户端计算模型的MD5并将其签名信息存储在区块链中。最后,每个客户端将模型发送给任务发布者。
  5. 模型检测阶段:任务发布者首先接收各个客户端发送的模型,并从区块链上下载每个模型的签名和MD5信息,以识别模型是否完整、可信。然后,调用恶意模型检测算法对每个模型进行检测,并根据检测结果将客户端分为可信客户端和恶意客户端组。
  6. 声誉评估阶段:任务发布者识别模型后,通过评估模型的结果并计算每个客户的新声誉来评估客户的声誉。最后,任务发布者将声誉值存储在区块链中。
  7. 模型聚合阶段:任务发布者将可信客户端的模型聚合成全局模型,然后将全局模型的MD5和签名存储在区块链中。最后,将全局模型发送给每个参与者。
  8. 贡献评估阶段:任务发布者通过贡献评估算法计算每个客户端的贡献,计算每个客户端的奖励,最后将奖励值写入区块链。

(2)基于区块链的智能合约机制

《A Credible and Fair Federated Learning FrameworkBased on Blockchain》基于区块链的可信、公平的联邦学习框架,人工智能

设计了五种智能合约和四种类型的区块链,每个区块链将由所有任务发布者和参与者节点监督和维护,以防止篡改。任务发布者或参与者存储信息的过程将被视为一个交易,所有节点都会将该交易发送给其所有邻居节点,直到网络中的每个节点都收到该交易。一旦所有节点验证完毕,交易就会被存储在相应的区块链上。

任务合约(Task Contract):该合约主要完成联邦任务的创建以及参与者的任务共识。当任务发布者发布新任务时,任务合约将被触发,新任务将被广播到所有节点。每个参与节点根据自己的计算资源、数据资源和奖励来决定是否参与该任务。如果参与者加入任务,则会将信息发送给任务发布者。所有任务信息都将存储在任务链中,其中包括任务描述和参与者信息,例如计算资源和训练数据、总奖励以及每轮奖励的分配规则。合约存储了任务链中的所有信息。

模型合约(Model Contract):该合约主要完成参与者模型的信息存储。任务发布者首先将初始化的全局模型的MD5和签名信息存储在模型链上。在每轮通信开始时,每个客户端都会从模型链下载全局模型来初始化本地模型。接下来,每个客户端使用本地数据来训练本地模型。最后,每个客户端将模型的MD5和签名信息上传到模型链。

安全聚合合约(Security Aggregator Contract):该合约主要保证全局模型的安全聚合。当参与本轮的所有节点完成模型上传后,触发该合约的执行。本合约集成了第III-D节中的安全聚合算法,以融合本轮的全局模型。最后,任务发起者将全局模型的信息存储在模型链中。

信誉合约(Reputation Contract):该合约主要完成客户历史信誉值的查询和存储客户新的信誉值。任务发布者调用该合约来获取每个客户的历史声誉信息,以更好地选择候选人。当每轮通信完成后,任务发布者调用该合约计算本轮各节点新的信誉值,最后将新的信誉值和一些相关信息写入信誉链。

贡献与奖励合约(Contribution and Reward Contract):该合约主要评估每个参与节点在每一轮中的贡献和奖励分配。任务发布者在每一轮中都会调用这个合约。合约集成了Section III-E的算法,可以计算每个参与者的贡献和奖励,最后将计算出的值写入CR-Chain。文章来源地址https://www.toymoban.com/news/detail-854446.html

到了这里,关于《A Credible and Fair Federated Learning FrameworkBased on Blockchain》基于区块链的可信、公平的联邦学习框架的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【联邦学习+区块链】A Blockchain-based Decentralized Federated Learning Framework with Committee Consensus

    论文地址 :https://ieeexplore.ieee.org/abstract/document/9293091 文章提出了一种基于区块链的去中心化、自治的 FL 架构来应对现阶段所面临的各种挑战(架构如Fig.1所示)。在FL节点管理上,基于联盟链的架构保证了节点的权限控制。在存储方面,文章设计了模型和更新的链上存储模式,

    2024年02月03日
    浏览(35)
  • A Blockchain-Enabled Federated Learning System with Edge Computing for Vehicular Networks边缘计算和区块链

    摘要:在大多数现有的联网和自动驾驶汽车(CAV)中,从多辆车收集的大量驾驶数据被发送到中央服务器进行统一训练。然而,在数据共享过程中,数据隐私和安全没有得到很好的保护。此外,集中式体系结构还存在一些固有问题,如单点故障、过载请求、无法容忍的延迟等

    2024年02月05日
    浏览(30)
  • 《Secure Analytics-Federated Learning and Secure Aggregation》论文阅读

    背景 机器学习模型对数据的分析具有很大的优势,很多敏感数据分布在用户各自的终端。若大规模收集用户的敏感数据具有泄露的风险。 对于安全分析的一般背景就是认为有n方有敏感数据,并且不愿意分享他们的数据,但可以分享聚合计算后的结果。 联邦学习是一种训练数

    2024年02月07日
    浏览(32)
  • 【论文阅读笔记】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning

    个人阅读笔记,如有错误欢迎指出! 会议:NDSS 2022        [2009.03561] Local and Central Differential Privacy for Robustness and Privacy in Federated Learning (arxiv.org) 问题:         尽管联邦学习能在一定程度上保护数据隐私,但也存在隐私和鲁棒性漏洞 主要贡献:         首次发现

    2024年02月01日
    浏览(31)
  • [paper reading] Federated Learning With Differential Privacy:Algorithms and Performance Analysis

    1.整篇论文的总结: (1)提出了一种基于差分隐私的联邦学习框架:NbAFL(noising before model aggregation FL),在局部模型聚合成全局模型之前加入噪声(客户端和服务器端都会加噪声)。 (2)对训练的FL模型的损失函数规定了一个 理论上的收敛界限 (就是要求损失函数低于某

    2024年02月11日
    浏览(25)
  • SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning论文阅读笔记

    SAFEFL,这是一个利用安全多方计算 (MPC) 来评估联邦学习 (FL) 技术在防止隐私推断和中毒攻击方面的有效性和性能的框架。 传统机器学习(ML):集中收集数据-隐私保护问题 privacy-preserving ML (PPML)采用的隐私保护技术:安全多方计算,同态加密(运算成本高) 联邦学习(FL):

    2024年04月22日
    浏览(36)
  • 对于 《Robust Blockchained Federated Learning with Model Validation and PoS Inspired Consensus》的讨论

    本文主要是根据Google FL和Vanilla FL为基础进行创新的,发表于2021年。其中 Vanilla FL 是Google公司于2017年写的一篇论文《Communication-Efficient Learning of Deep Networks from Decentralized Data》中提到的方法,也是全球第一个提出联邦学习的论文。 Google FL 也是Google公司于2017年写的一篇论文《

    2024年02月06日
    浏览(33)
  • 【论文导读】- GraphFL: A Federated Learning Framework for Semi-Supervised Node Classification on Graphs

    原文地址:https://arxiv.org/abs/2012.04187 Graph-based semi-supervised node classification (GraphSSC) has wide applications, ranging from networking and security to data mining and machine learning, etc. However, existing centralized GraphSSC methods are impractical to solve many real-world graph-based problems, as collecting the entire graph and labeli

    2024年02月02日
    浏览(34)
  • PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

    论文下载地址:https://arxiv.org/abs/1612.00593 代码开源地址:https://github.com/charlesq34/pointnet 作者以及论文信息如下: 论文作者的公开课链接 :https://www.shenlanxueyuan.com/channel/8hQkB6hqr2/detail(大佬的课必须去感受下啊~~) 最近,开始研究基于3D点云的深度学习算法。 PointNet 作为基于

    2023年04月15日
    浏览(31)
  • 联邦学习((Federated Learning,FL)

    每日一诗: 题竹(十三岁应试作于楚王孙园亭) ——明*张居正 绿遍潇湘外,疏林玉露寒。 凤毛丛劲节,只上尽头竿。 近期在阅读联邦学习领域相关文献,简单介绍如下文。本文仅供学习,无其它用途。如有错误,敬请批评指正! 一、联邦学习(Federated Learning,FL): 举目

    2024年02月06日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包