浅析密码学的差分隐私技术
差分隐私 (英语: differential privacy )是 密码学 中的一种 手段 ,旨在提供一种当从 统计数据库 查询 时,最大化数据查询的 准确性 ,同时最大限度减少识别其 记录 的机会。
差分隐私(Differential Privacy),简称DP,旨在传输的梯度信息中加入随机噪声,并将其查询操作的实际结果隐藏起来或者模糊化,直至无法区分,从而实现对私密数据的保护。
加入噪音一般有,拉普拉斯机制,指数机制和高斯机制。用的最多的是拉普拉斯机制。
1、多方安全计算:基于密码学的隐私计算技术; 2、联邦学习:人工智能与隐私保护技术融合衍生的技术; 3、可信执行技术(TEE):代表的基于可信硬件的隐私计算技术。
混淆电路、秘密分享、不经意传输等作为底层密码学技术,同态加密、零知识证明、差分隐私等作为辅助技术的相对成熟的技术体系。
差分隐私与其他隐私计算的联系是什么? 1、差分隐私是隐私计算中技术的一种,与同态加密,数据脱敏,混淆电路等算法同级别。每种技术侧重点不同,前面也提到了,差分隐私更关注结果,对于隐私计算的过程没有保护。 2、安全多方计算,联邦学习都可以用差分隐私,它们相当于是隐私计算的一个子集,差分隐私是这个子集中的一个元素,或者说是子集的子集。 3、安全多方计算在我看来更像是一个协议,可被用于联邦学习中。联邦学习更像是一个隐私计算的框架,可用其他技术,包括TEE。在隐私计算体系结构中我感觉算法应用基本都是描述联邦学习的。
相关推荐
-
无相关信息