跳到主要内容
10.1145/3508398.3511513acm会议文章/章节视图摘要出版物页面鳕鱼会议记录会议集合
研究论文

DP-UTIL:机器学习中差异隐私的综合效用分析

出版:2022年4月15日 出版历史
  • 获取引文警报
  • 摘要

    差异隐私(Differential Privacy,DP)是一种严格的形式主义,用于量化对隐私敏感数据进行操作的算法所提供的隐私保护。在机器学习(ML)中,DP被用来限制训练示例的推断/公开。之前的工作在ML管道中利用了DP,尽管是孤立的,但通常侧重于梯度扰动等机制。
    在本文中,我们提出了DP-UTIL,一个跨ML流水线的DP整体效用分析框架,重点关注输入扰动、目标扰动、梯度扰动、输出扰动和预测扰动。假设对隐私敏感数据执行ML任务,DP-UTIL使ML隐私从业者能够对这五个扰动点中DP的影响进行整体比较分析,以模型效用损失、隐私泄漏和真正揭示的训练样本数量来衡量。
    我们使用两种针对成员推理攻击的典型学习算法(逻辑回归和深度神经网络)作为案例研究攻击,对DP-UTIL在视觉、医学和金融数据集上的分类任务进行评估。我们结果的一个亮点是,在所有数据集的所有模型上,预测扰动始终实现最低的效用损失。在逻辑回归模型中,与其他扰动技术相比,客观扰动导致最低的隐私泄漏。对于深度神经网络,梯度扰动导致最低的隐私泄漏。此外,我们对真实披露记录的结果表明,随着隐私泄露的增加,不同的私有模型会显示更多的成员样本。总之,我们的研究结果表明,为了对扰动机制的选择做出明智的决定,ML隐私从业者需要检查优化技术(凸与非凸)、类数和隐私预算之间的动态关系。

    补充材料

    MP4文件 (代码ASPY22_coda082.mp4)
    作为机器学习隐私实践者,您如何比较差异隐私扰动在机器学习管道中的应用?DP-UTIL提供了一个整体框架,用于权衡分析机器学习中差异隐私的使用,重点关注输入扰动、目标扰动、梯度扰动、输出扰动和预测扰动。DP-UTIL将成员关系推断用作案例研究攻击,可以对这些干扰机制进行比较分析,包括效用损失、隐私泄露和真实的披露记录。使用医疗、财务和图像数据集,我们展示了DP-UTIL如何实现综合权衡分析,并提供新的见解,以指导机器学习隐私从业者对扰动的选择做出明智的决定。

    工具书类

    [1]
    马丁·阿巴迪(Mart’i n Abadi)、安迪·朱棣文(Andy Chu)、伊恩·古德费罗(Ian J.Goodfellow)、H.布伦丹·麦克马汉(H.Brendan McMahan)、伊利亚·米罗诺夫(Ilya Mironov)、库纳尔·。2016.深度学习与差异隐私。2016年10月24日至28日在奥地利维也纳举行的2016 ACM SIGSAC计算机和通信安全会议记录。美国医学会,308--318。
    [2]
    盖伦·安德鲁、史蒂夫·基恩和尼古拉斯·帕普诺特。2020年,TensorFlow隐私。https://github.com/tensorflow/privacy,第abs/2002.08570卷(2020年)。arxiv:2002.08570
    [3]
    马克·布恩和托马斯·斯坦克。集中差异隐私:简化、扩展和下限。密码学理论——第14届国际会议,TCC 2016-B,中国北京,2016年10月31日至11月3日,会议记录,第一部分(计算机科学讲稿,第9985卷)。635--658.
    [4]
    尼古拉斯·卡里尼(Nicholas Carlini)、张刘(Chang Liu)、乌尔法尔·埃尔林森(Uu lfar Erlingsson)、杰内伊·科斯(Jernej Kos)和黎明之歌(Dawn Song)。2019.秘密分享者:评估和测试神经网络中的无意记忆。2019年8月14日至16日,在美国加利福尼亚州圣克拉拉举行的第28届USENIX安全研讨会上。USENIX协会,267--284。
    [5]
    Kamalika Chaudhuri和Claire Monteleoni。2008年,隐私保护逻辑回归。《神经信息处理系统进展21》,《第二十二届神经信息处理体系年会论文集》,加拿大不列颠哥伦比亚省温哥华,2008年12月8-11日。Curran Associates公司,289--296。
    [6]
    卡马利卡·乔杜里(Kamalika Chaudhuri)、克莱尔·蒙特利奥尼(Claire Monteleoni)和阿南德·萨瓦特(Anand D.Sarwate)。2011年,差异私人经验风险最小化。J.马赫。学习。研究,第12卷(2011年),1069-1109。
    [7]
    约翰·杜奇(John C.Duchi)、迈克尔·乔丹(Michael I.Jordan)和马丁·温赖特(Martin J.Wainwright)。2013年,本地隐私和统计最低限额。第54届IEEE计算机科学基础年会,FOCS 2013,2013年10月26-29日,美国加利福尼亚州伯克利。IEEE计算机学会,429-438。
    [8]
    辛西娅·德沃克(Cynthia Dwork)、弗兰克·麦克谢里(Frank McSherry)、科比·尼西姆(Kobbi Nissim)和亚当·史密斯(Adam D.Smith)。2006.私人数据分析中噪声敏感性的校准。《密码学理论》,第三届密码学会议,2006年3月4日至7日,美国纽约州纽约市,TCC 2006,会议记录(计算机科学讲稿,第3876卷)。265--284.
    [9]
    辛西娅·德沃克和亚伦·罗斯。2014.差异隐私的算法基础。已找到。趋势理论。计算。科学。,第9卷,第3-4卷(2014年),第211-407页。
    [10]
    Matt Fredrikson、Somesh Jha和Thomas Ristenpart。2015.利用信任信息的模型反转攻击和基本对策。2015年10月12-16日,美国科罗拉多州丹佛市,第22届ACM SIGSAC计算机和通信安全会议记录。1322--1333.
    [11]
    福池和夫(Kazuto Fukuchi)、Tran Quang Khai和Jun Sakuma。2017.投入扰动下的差异私人经验风险最小化。发现科学-第20届国际会议,DS 2017,日本京都,2017年10月15日至17日,会议记录(计算机科学讲义,第10558卷)。施普林格,82-90。
    [12]
    Naoise Holohan、Stefano Braghin、Pól Mac Aonghusa和Killian Levacher。2019.Diffprivlib:IBM Differential Privacy Library。CoRR,卷abs/1907.02444(2019)。
    [13]
    Ismat Jarin和Birhanu Eshete。2021.价格:多方环境下的隐私保护协同推断。CODASPY的IWSPA2021:ACM安全和隐私分析研讨会,虚拟活动,美国,2021年4月28日。ACM,25-35岁。
    [14]
    巴加夫·贾亚拉曼和大卫·埃文斯。2019.在实践中评估不同的私有机器学习。2019年8月14日至16日,在美国加利福尼亚州圣克拉拉举行的第28届USENIX安全研讨会上,USENIX Security 2019。USENIX协会,1895-1912年。
    [15]
    Bargav Jayaraman、Lingxiao Wang、David Evans和Quanquan Gu.2018年。分布式学习无忧:隐私保护经验风险最小化。《神经信息处理系统进展》第31期:2018年神经信息处理体系年会,2018年12月3日至8日,加拿大蒙特利尔,NeurIPS 2018。6346--6357.
    [16]
    Bargav Jayaraman、Lingxiao Wang、David Evans和Quanquan Gu.2020年。在现实假设下重温成员推断。CoRR,第abs/2005.10881卷(2020年)。
    [17]
    贾金元、艾哈迈德·塞勒姆、迈克尔·巴克斯、杨张和龚振强。【未注明日期】。MemGuard:通过对手示例防御Black-Box成员推断攻击。2019年ACM SIGSAC计算机和通信安全会议记录,CCS 2019。259--274.
    [18]
    卡格尔。2007年。所有借贷俱乐部贷款数据。https://www.kaggle.com/wordsforthewise/lending-club网站 .
    [19]
    卡格尔。2020年,新冠肺炎患者前期状况数据集。https://www.kaggle.com/tanmoyx/covid19-partient-precondition-dataset .
    [20]
    康一林、刘勇、牛本义、童信义、张利坤和王卫平。2020年。输入干扰:中央和地方差别隐私之间的新范式。CoRR,第abs/2002.08570卷(2020年)。arxiv:2002.08570号
    [21]
    Hamed Karimi、Julie Nutini和Mark Schmidt。2016。Polyak-Łojasewicz条件下梯度和近端梯度方法的线性收敛性。数据库中的机器学习和知识发现-欧洲会议,ECML PKDD 2016,意大利Riva del Garda,2016年9月19-23日,会议记录,第一部分(计算机科学讲义,第9851卷)。施普林格,795-811。
    [22]
    凯拉斯。【未注明日期】。CIFAR-10数据集。https://keras.io/api/datasets/cifar10/l .
    [23]
    卢卡·梅利斯(Luca Melis)、宋从政(Congzheng Song)、埃米利亚诺·德·克里斯托法罗(Emiliano De Cristofaro)和维塔利·什马提科夫(Vitaly Shmatikov)。2019.利用协作学习中的意外特征泄漏。2019年IEEE安全与隐私研讨会,SP 2019,美国加利福尼亚州旧金山,2019年5月19-23日。IEEE,691--706。
    [24]
    伊利亚·米罗诺夫。2017.雷尼差异隐私。2017年8月21-25日,在美国加利福尼亚州圣巴巴拉举行的第30届IEEE计算机安全基础研讨会上,CSF 2017。IEEE计算机学会,263-275。
    [25]
    Milad Nasr、Reza Shokri和Amir Houmansadr。2019.深度学习的综合隐私分析:针对集中学习和联合学习的被动和主动白盒推理攻击。2019年IEEE安全与隐私研讨会,SP 2019,美国加利福尼亚州旧金山,2019年5月19-23日。IEEE,739--753。
    [26]
    Milad Nasr、Reza Shokri和Amir Houmansadr。2020年。使用梯度编码和去噪,通过差异隐私改进深度学习。CoRR,第abs/2007.11524卷(2020年)。
    [27]
    尼古拉斯·帕尔诺特(Nicolas Papernot)、马丁·阿巴迪(Mart’i n Abadi)、乌勒法·埃尔林森(ul lfar Erlingsson)、伊恩·古德费罗(Ian J.Goodfellow)和库纳尔·塔尔瓦尔(Kunal Talwar)。2017.从私人培训数据进行深度学习的半监督知识转移。在2017年ICLR第五届国际学习代表大会上。OpenReview.net。
    [28]
    尼古拉斯·帕尔诺特(Nicolas Papernot)、双松(Shuang Song)、伊利亚·米罗诺夫(Ilya Mironov)、阿南思·拉胡纳坦(Ananth Raghunathan)、库纳尔·塔尔瓦尔(Kunal Talwar)和乌勒法·埃尔林格森(。2018年,与PATE合作开展可扩展的私人学习。2018年4月30日至5月3日,在加拿大不列颠哥伦比亚省温哥华举行的2018年ICLR第六届国际学习代表大会上,会议记录。OpenReview.net。
    [29]
    马里兰州阿提克·拉赫曼、坦齐拉·拉赫曼(Tanzila Rahman)、罗伯特·拉加尼埃(Robert Laganière)和诺曼·穆罕默德(Noman Mohammed)。2018年,针对不同私有深度学习模型的成员推断攻击。事务处理。Data Priv.,第11卷,第1卷(2018年),第61-79页。
    [30]
    Reza Shokri、Marco Stronati和Vitaly Shmatikov。2016.针对机器学习模型的成员推断攻击。CoRR,第abs/1610.05820卷(2016年)。
    [31]
    宋从政、托马斯·里斯滕帕特和维塔利·什马蒂科夫。2017.记忆太多的机器学习模型。在ACM SIGSAC计算机和通信安全会议记录中,CCS。美国医学会,587--601。
    [32]
    维尼思·苏里亚库马尔(Vinith M.Suriyakumar)、尼古拉·帕尔诺特(Nicolas Papernot)、安娜·戈登伯格(Anna Goldenberg)和马齐耶·加塞米(Marzyeh Ghassemi)。2021.追逐你的长尾巴:医疗环境中不同的私人预测。在FAccT’21:2021 ACM公平、问责和透明度会议上。723--734.
    [33]
    Florian Tramèr、Fan Zhang、Ari Juels、Michael K.Reiter和Thomas Ristenpart。2016.通过预测API窃取机器学习模型。在第25届USENIX安全研讨会上。601--618.
    [34]
    王迪、叶敏伟和徐金辉。2017年,重新审视不同私人经验风险最小化:更快更普遍。神经信息处理系统进展30:2017年12月4-9日在美国加利福尼亚州长滩举行的神经信息处理体系年度会议,2722-2731。
    [35]
    Samuel Yeom、Irene Giacomelli、Matt Fredrikson和Somesh Jha。2018.机器学习中的隐私风险:分析与过度拟合的联系。在第31届IEEE计算机安全基础研讨会上。IEEE计算机学会,268-282。
    [36]
    本杰明·子浩(Benjamin Zi Hao Zhao Zao)、穆罕默德·阿里·卡法尔(Mohamed Ali Káafar)和尼古拉斯·库尔特利斯(Nicolas Kourtellis)。2020年。不是一个而是多个权衡:不同私有机器学习中的隐私与效用。(2020), 15--26.

    引用人

    查看全部
    • (2023)基于差异隐私的联合学习效用损失分析2023年IEEE第22届计算与通信信任、安全和隐私国际会议(TrustCom)10.1109/信托公司60117.2023.00167(1230-1235)在线发布日期:2023年11月1日
    • (2023)通过屏蔽成员信号防御成员推断攻击IEEE服务计算汇刊10.1109/TSC.2023.330933616:6(4087-4101)在线发布日期:2023年11月
    • (2023)差异私人联合学习:输出扰动和DP-SGD的隐私和效用分析2023年IEEE国际大数据会议(BigData)10.1109/大数据59044.2023.10386466(5549-5558)在线发布日期:2023年12月15日
    • 显示更多引用者

    索引术语

    1. DP-UTIL:机器学习中差异隐私的综合效用分析

      建议

      评论

      信息和贡献者

      问询处

      发布于

      封面图片ACM会议
      CODASPY’22:第十二届ACM数据和应用程序安全与隐私会议记录
      2022年4月
      392页
      国际标准图书编号:9781450392204
      内政部:10.1145/3508398
      如果复制品不是为了盈利或商业利益而制作或分发的,并且复制品的第一页载有本通知和完整引文,则允许免费制作本作品的全部或部分数字或硬拷贝以供个人或课堂使用。必须尊重ACM以外的其他人对本作品组成部分的版权。允许用信用证进行摘要。要以其他方式复制或重新发布,在服务器上发布或重新发布到列表,需要事先获得特定许可和/或付费。从请求权限[电子邮件保护]

      赞助商

      出版商

      计算机协会

      美国纽约州纽约市

      出版历史

      出版:2022年4月15日

      权限

      请求对此文章的权限。

      检查更新

      作者标记

      1. 差异隐私
      2. 机器学习
      3. 成员推理攻击

      限定符

      • 研究文章

      会议

      22年的鳕鱼
      赞助商:
      CODASPY'22:第二十届ACM数据和应用程序安全与隐私会议
      2022年4月24日至27日
      美国巴尔的摩医学博士

      接受率

      789份提交文件中的总体接受率149份,19%

      贡献者

      其他指标

      文献计量学和引文

      文献计量学

      文章指标

      • 下载量(最近12个月)88
      • 下载次数(最近6周)5
      反映截至2024年7月29日的下载量

      其他指标

      引文

      引用人

      查看全部
      • (2023)基于差异隐私的联合学习效用损失分析2023年IEEE第22届计算与通信信任、安全和隐私国际会议(TrustCom)10.1109/信托公司60117.2023.00167(1230-1235)在线发布日期:2023年11月1日
      • (2023)屏蔽成员信号防御成员推断攻击IEEE服务计算汇刊10.1109/TSC.2023.330933616:6(4087-4101)在线发布日期:2023年11月
      • (2023)差异私人联合学习:输出扰动和DP-SGD的隐私和效用分析2023年IEEE国际大数据会议(BigData)10.1109/大数据59044.2023.103886466(5549-5558)在线发布日期:2023年12月15日
      • (2023)二级正则化和差异隐私对成员推断攻击的数据增强、丢失评估多媒体工具和应用程序2007年10月10日/11042-023-17394-383:15(44455-44484)在线发布日期:2023年10月18日
      • (2022)差异隐私如何加强机器学习模型的隐私?计算集体智能的进展10.1007/978-3-031-16210-7_54(661-673)在线发布日期:2022年9月21日

      视图选项

      获取访问权限

      登录选项

      完全访问权限

      查看选项

      PDF格式

      以PDF文件查看或下载。

      PDF格式

      电子阅读器

      使用联机查看电子阅读器.

      电子阅读器

      媒体

      数字

      其他

      桌子

      份额

      份额

      共享此出版物链接

      在社交媒体上分享