【论文学习3】Local Differential Privacy for Deep Learning

泄露秘密 提交于 2020-03-08 22:17:06

Local Differential Privacy for Deep Learning

0.ABSTRACT

  • 物联网正在改变包括但不限于医疗、农业、金融、能源和交通等主要行业。物联网平台不断改进,创新包括边缘云交互中的软件定义网络(SDN)网络功能虚拟化(NFV)的融合
  • 深度学习因其在使用大量数据进行训练时具有显著的准确性而越来越受欢迎。然而,当使用高度敏感的众包数据(如医疗数据)进行训练时,DL算法往往会泄露隐私。现有的保护隐私的DL算法依赖于传统的以服务器为中心的方法,这种方法需要很高的处理能力。
  • 我们提出了一种新的局部差异私有(LDP)算法,称为LATENT算法,重新设计了训练过程。LATENT允许数据所有者在数据离开数据所有者的设备并到达潜在不受信任的机器学习服务之前添加随机化层.卷积神经网络的结构:(1)卷积模块(2)随机化模块(3)全连接层。随机化模块可以作为SDN控制NFV中的NFV隐私保护服务运行。
  • 随机化模块采用了一种新的LDP协议,称为效用增强随机化(utility enhanced randomization),与现有的LDP协议相比,它允许潜在用户保持较高的效用。我们对潜在卷积深度神经网络的实验评估表明,即使在低隐私预算(例如,ε=0.5)下,具有高模型质量的优良精度。

模型通常针对敏感的众包数据(如个人图像、健康记录和财务记录)进行训练。当在包含敏感数据的海量数据库上训练DL模型时,它们倾向于公开私有信息。

数据所有者在发布数据之前会对其数据进行干扰,这样在保证更好的隐私的同时避免了对可信第三方的需求,

  • 提出了一种基于差分隐私(DP)的分布式隐私保护机制来控制和限制深度学习中的隐私泄漏。

  • 我们对现有的LDP协议进行了深入的分析,设计了一种新的协议,称为效用增强随机化(UER),它比现有的LDP协议提供了更好的效用
    首先对优化的一元编码协议(OUE)进行了改进,提出了一种新的LDP协议modified OUE(MOUE),增强了二进制字符串随机化的灵活性。
    OUE是一个LDP协议,遵循随机1和0的不同直觉,以提高效用。
    MOUE通过引入一个额外的系数α(隐私预算系数)来实现改进的灵活性,该系数在选择随机化概率时提供了改进的灵活性。

然后我们遵循MOUE背后的动机,提出了在高灵敏度的长二进制字符串随机化过程中保持效用的UER。通过移动随机化层以作为NFV服务运行,潜在的可以很容易地集成到SDN控制的NFV等现代环境中。由于潜在的LDP方法能够在扰动过程之前控制隐私预算,因此可以有效地独立调节精度。换言之,潜在降低了隐私预算(ε)对准确性的影响,这导致隐私和准确性显著高于现有解决方案所提供的隐私和准确性。与当前用于深度学习的GDP方法相比,在隐私预算(例如ε=0.5)的极端情况下,潜在的方法提

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!