我的隐私计算学习——隐私集合求交(2)

这篇具有很好参考价值的文章主要介绍了我的隐私计算学习——隐私集合求交(2)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

笔记内容来自多本书籍、学术资料、白皮书及ChatGPT等工具,经由自己阅读后整理而成。

前篇可见:我的隐私计算学习——隐私集合求交(1)


(三)PSI应用场景问题

​在目前的实际应用中,衍生出一些新的需求,例如除了不泄露参与计算的集合的ID和特征的基础上,要求集合的基数也不泄露; 或者是在隐私集合求交过程中,只返回交集大小,不返回具体的交集 ID; 或者是在进行集合求交的过程中,增加了集合筛选条件,只返回满足筛选条件的交集。
此外,最流行的基于不经意传输协议的隐私集合求交方案是限定对手模型是半诚实模型的前提下的安全求交协议。隐私集合求交技术作为基础应用技术,其性能仍有提升需求。目前的各种技术方案,缺少标准的对抗手段来证明其确实在实际应用中保护了数据安全。以及缺少基于隐私集合求交的各种标杆性应用。

​ 由于 PSI 协议的求交结果般都首先由一方获得并同步给另一方,为了方便描述,此处我们定义首先获得求交结果的一方为结果方,另一方为数据方。恶意模型主要存在以下两个问题:

(1)大多数高效的 PSI 使用 Cuckoo Hash 作为数据结构,那么数据方的每一个元素都必须发送其 n 个对应位置(假设 Cuckoo Hash 使用 n 个 hash)的伪随机函数值给结果方,若数据方恶意少发送数据,则求交结果会缺失。

(2)求交结果一半都存在于一方(结果方),然后同步给另一方,如果此时恶意的结果方隐瞒一些结果集,那么数据方将无法获得完整求交结果。

​ 在恶意模型中,协议需要使用额外的手段来防止上述攻击的可能,因此恶意模型下安全的协议的复杂程度和开销往往远大于半诚实模型下安全的协议,如何设计性能接近半诚实方案的恶意 PSI 方案仍旧是一个挑战。另外,这也引发我们的进一步思考,即恶意模型下 PSI 是否有必要,是否可以通过多方安全计算技术以外的手段来避免恶意模型的发生?例如,设置足够严厉的处罚措施,并设立不定期抽查机制来防止恶意行为的发生。

几种典型的应用场景问题如下:

  1. 非对称隐私集合求交

    • 隐私计算技术|非平衡隐私集合求交(Unbalanced PSI)协议介绍

    在某些实际应用场景里。一个参与方 A 的样本量远远小于另一参与方 B,这里称拥有样本量少的 A 为弱势方,称拥有样本量多的 B 为强势方,也就是出现非对称隐私集合求交的问题。

    解决方案:针对上述非对称联邦学习场景,在 PSI 流程中,提出从强势方的ID集合中随机抽取部分密文 ID 数据混入最终交集中,可以得到如下效果。

    (1)最终计算得到的 PSI 交集由真实交集和混淆集合组成,其中混淆集合全部来自强势方的样本 ID。

    (2)弱势方可以获得 PSI 交集,同时可以通过对比本地 ID 集合和 ID 交集得到真实的样本 ID 交集,但是无法获取混淆交集部分的样本 ID( 由密文保护) ,保护了强势方的数据安全。

    (3)强势方可以获得 PSI 交集,但是无法判断哪些样本属于真实 ID 交集。

    (4)在实际场景中,当弱势方和强势方数据量之比在 1: 100 时,只需要取真实交集与强势方集合数据量之比为 1: 10,即可将弱势方数据的安全性提升 10 倍。

  2. 金融领域的斜向联邦学习

    • 金融联合建模
    • 金融联合统计
    • 金融联合营销

    — —斜向联邦学习?

    — —在斜向联邦学习场景里,参与方 A 和参与方 B 各拥有一部分特征,且两个参与方分别拥有一部分由两方 PSI 获得的交集中的样本的标签信息。两方斜向联邦学习适用的场景是联邦学习的两个参与方 A 和 B 的训练数据有重叠的数据样本,两方拥有的数据特征却不同,两方数据特征空间形成互补,类似于纵向联邦学习场景。与纵向联邦学习不同的是,在两方斜向联邦学习里,参与方 A 和参与方 B 各拥有一部分 PSI 交集里的样本对应的标签信息,甚至参与方 A 和参与方 B 可能同时拥有一部分样本的标签信息。因此,从标签信息维度看,斜向联邦学习又类似于横向联邦学习。

    我的隐私计算学习——隐私集合求交(2),学习,人工智能,密码学,同态加密,安全

    斜向联邦学习的应用场景常见于金融领域。不同的金融机构( 如银行与支付平台) 拥有的数据特征不一样,且可能各自拥有一部分样本的标签信息。

    斜向联邦学习的算法协议可以从纵向联邦学习演化发展得到。例 如,在两方纵向联邦逻辑回归 ( LogisticRegression,LR ) 协议里,拥有标签信息的一方称为Guest,另外一方称为 Host。在两方斜向联邦 LR 协议里,可以请两个参与方 A 和 B 分别轮流担任 Guest 和 Host 的角色,这样就可以分别使用参与方 A 和 B 拥有的标签信息。需要注意的是,在进行小批次 ( Mini-batch) 数据划分时,每个小批次中的训练样本的标签信息必须属于同一个参与方。

  3. 阈值PSI

    阈值 PSI 指当交集的基数大于或等于门限值时,接收方才能获得隐私集合交集.如网约顺风车,在不泄露陌生人路径的情况下如何共享双方的公共路径是该场景的重点问题。

(四)典型的PSI算法过程

​ 掌握了核心思想,就可以再理解 PSI 的整个过程。以纵向联邦学习的 PSI 算法为例,纵向联邦的模式是一个主体的特征分布在两家以上的组织,那么在一起联合训练的时候,需要把一个主体的特征进行串联,这个过程包含:

  • 初始化:
    1. Server侧的样本 ID 集合 { hc1, hc2, …,hcv },Client 侧的样本 ID 集合 { hs1, hs2, hsw }
    2. Server产生 RSA 加密的公钥与秘钥,秘钥保留在 Server 端,公钥(e,n)下发到 Client 端。
    3. Full-Domain Hash H。(小于 n,并且与 n 互质,数据量特别大的情况下要考虑空间问题)。
    4. Client 随机数 R。(小于 n,并且与 n 互质)
  • 交互:

我的隐私计算学习——隐私集合求交(2),学习,人工智能,密码学,同态加密,安全

我的隐私计算学习——隐私集合求交(2),学习,人工智能,密码学,同态加密,安全

我的隐私计算学习——隐私集合求交(2),学习,人工智能,密码学,同态加密,安全

​ 首先基于 RSA 公钥加密算法。Client 侧拥有公钥 e 和随机数,Server 侧用于私钥 d 和公钥 e,最终加密的拼接键通过私钥 d 进行加密,基于 RSA 因式分解的复杂性,client 侧通过加盲然后去盲的方式获得基于私钥 d 的加密,但是他自己没法生成。Server 侧当然可以生成,但是 Server 侧也无法解开 Client 侧发来寻求协助私钥 d 生成的加密的拼接键,因为有盲。所以除了端到端的方式中间过程没法破解。


10月份新开了一个GitHub账号,里面已放了一些密码学,隐私计算电子书资料了,之后会整理一些我做过的、或是我觉得不错的论文复现、代码项目也放上去,欢迎一起交流!Ataraxia-github文章来源地址https://www.toymoban.com/news/detail-753350.html

到了这里,关于我的隐私计算学习——隐私集合求交(2)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能隐私保护中的跨隐私数据保护与跨隐私数据治理策略

    作者:禅与计算机程序设计艺术 引言 1.1. 背景介绍 随着人工智能技术的快速发展,各种应用场景及业务需求不断涌现,个人隐私保护问题日益凸显。在众多隐私保护技术中,跨隐私数据保护与跨隐私数据治理策略技术受到越来越多的关注。 1.2. 文章目的 本文旨在阐述跨隐私

    2024年02月09日
    浏览(49)
  • 人工智能与智慧城市的安全与隐私挑战

    随着人工智能技术的发展,智慧城市的建设也在全球范围内得到了广泛关注。智慧城市通过大数据、人工智能、物联网等技术,实现城市资源的高效利用、环境的保护、居民的生活质量的提高。然而,随着人工智能技术的进一步发展,隐私和安全问题也逐渐成为社会关注的焦

    2024年02月22日
    浏览(46)
  • 阶段五:深度学习和人工智能(学习人工智能的应用领域,如自然语言处理,计算机视觉等)

    Python是人工智能领域最流行的编程语言之一,它具有简单易学、功能强大、库丰富等优点,因此在自然语言处理、计算机视觉等领域得到了广泛应用。 自然语言处理 自然语言处理是人工智能领域的一个重要分支,它主要研究如何让计算机理解和处理人类语言。Python在自然语

    2024年02月04日
    浏览(76)
  • 人工智能与法律研究:知识产权与隐私保护

    作者:禅与计算机程序设计艺术 作为人工智能助手,我们深知法律和隐私保护的重要性。在此,我们通过本文来探讨人工智能在知识产权和隐私保护方面的应用。本文将分为以下几个部分进行阐述:引言、技术原理及概念、实现步骤与流程、应用示例与代码实现讲解、优化与

    2024年02月09日
    浏览(39)
  • 云计算:从基础架构原理到最佳实践之:云计算人工智能与深度学习

    作者:禅与计算机程序设计艺术 云计算作为一种新型的分布式计算模型,带来了很大的变革和机遇。它可以帮助企业快速、低成本地获得海量数据的处理能力。而对于机器学习、深度学习等人工智能技术来说,云计算平台也是一个十分重要的研究方向。Cloud computing refers to

    2024年02月08日
    浏览(53)
  • 人工智能与人类智能的对话:如何实现安全与隐私的平衡

    人工智能(Artificial Intelligence, AI)和人类智能(Human Intelligence, HI)是两个不同的概念。AI 是指一种使用计算机程序和算法模拟、扩展和自动化人类智能的技术。HI 则是指人类的认知、理解、决策和行动能力。在过去的几年里,人工智能技术的发展非常迅猛,它已经被广泛应用于各

    2024年01月19日
    浏览(44)
  • 人工智能与人类智能的安全与隐私保护:如何平衡利益与风险

    人工智能(Artificial Intelligence, AI)和人类智能(Human Intelligence, HI)都是人类在处理信息和解决问题方面的能力。AI是指机器人或计算机程序具有人类智能的能力,而HI是指人类自然具备的智能。在过去的几年里,人工智能技术的发展非常迅猛,它已经成为许多行业的重要驱动力。然

    2024年03月14日
    浏览(65)
  • 人工智能伦理:如何确保AI技术在智能家居领域的安全与隐私

    随着人工智能(AI)技术的不断发展和进步,智能家居已经成为了人们生活中不可或缺的一部分。智能家居系统可以帮助我们更方便、更高效地进行日常生活,例如控制家居设备、监控家庭安全、提供家庭服务等。然而,随着智能家居系统的普及,隐私和安全问题也逐渐成为了人

    2024年04月13日
    浏览(56)
  • 四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险

    美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南, 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的隐私和安全挑战,并表示这类系统目前没有万无一失的方法进行保护。 NIST指出,这些安全和隐私挑战包括恶意操纵训练

    2024年02月03日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包