{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期-部分”:[[2024,6,20]],“日期-时间”:“2024-06-20T14:00:54Z”,“时间戳”:1718892054399},“出版商位置”:“美国纽约州纽约市”,“参考-计数”:69,“出版者”:“ACM”,“资助者”:[{“DOI”:“10.13039\/50100000781”,“名称”:“欧洲研究理事会”,“DOI-asserted-by”:“publisher”,“adward”:[“741278”]}],“content-domain”:{“domain”:[“dl.acm.org”],“crossmark-restriction”:true},“short-container-title”:[],“published-print”:{“date-parts”:[[2021,8,20]]},”DOI“:”10.1145\/346264.3468565“,”type“:”proceedings-article“,”created“:{”date-part“:[2021,8,19]],”date-ti me“:”2021-08-19T01:40:03Z“,”时间戳“:1629337203000},“update-policy”:“http://\/dx.doi.org\/10.1145\/crossmark-policy”,“source”:《Crossref》,“is-referenced-by-count”:28,“title”:[“Fairea:基准偏差缓解方法的模型行为变异方法”],“prefix”:“10.1145”,“author”:[{“ORCID”:”http://\/ORCID.org\/00000-0001-8684-5909“,”authenticated-ORCID“:false,”给定“:”Max“,“family”:“Hort”,“sequence”:“first”,“affiliation”:[{“name”:“University College London,UK”}]},{“ORCID”:“http://\ORCID.org\/0000-0003-0481-7264”,“authenticated-ORCID”:false,“given”:”Jie M.“,”family“:”Zhang“,”sequence“:”additional“,”affiliance“:[{name“:”University Colege Longton,UK“}]},{”ORCID“:”http://\orchid.org\/O0000-0002-9146-442X“,”经认证的“:false,“given”:“Federica”,“family”:“Sarro”,“sequence”:“additional”,“affiliation”:[{“name”:“University College London,UK”}]},{“ORCID”:”http://\/ORCID.org\/00000-0002-5864-4488“,”authenticated-ORCID“:false”,“giving”:“Mark”,”family“:”Harman“,”sequence“:”additional,“published-online”:{“date-parts”:[[2021,8,18]]},“reference”:[{“key”:“e_1_3_2_1_1_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1145\/3338906.3338937“},{“key”:”e_1_a_2_1_1“,”doi-assert-by“:”publisher“,Julia Angwin Jeff Larson Surya Mattu和Lauren Kirchner,2016年。机器偏差。ProPublica公司。请参阅https:\/\/www.propublica。org \/article \/machine-bias-risk assessments-in-ciminal-communication组织\/artracle \/machine-bias-风险评估-刑事判决。朱莉娅·安格温(Julia Angwin)、杰夫·拉尔森(Jeff Larson)、苏里亚·马图(Surya Mattu)和劳伦·基什内尔(Lauren Kirchner)。2016.机器偏差。ProPublica公司。请参阅https:\/\/www.propublica。org \/article \/machine-bias-risk assessments-in-ciminal-communication组织\/artracle \/machine-bias-风险评估-刑事判决。“},{”key“:”e_1_3_2_1_4_1“,”非结构化“:”Rachel KE Bellamy Kuntal Dey Michael Hind Samuel C Hoffman Stephanie Houde Kalapriya Kannan Pranay Lohia Jacquelyn Martino Sameep Mehta和Aleksandra Mojsilovic,2018年。AI Fairness 360:一个可扩展的工具包,用于检测理解和减少不必要的算法偏差。arXiv预打印arXiv:1810.01943。雷切尔·凯·贝拉米·库塔尔(Rachel KE Bellamy Kuntal Dey)、迈克尔·欣德·塞缪尔·霍夫曼(Michael Hind Samuel C Hoffman)、斯蒂芬妮·胡德·卡拉皮亚(Stephanie Houde Kalapriya)、坎南(Kannan)、普拉奈(Pranay)、罗希亚·杰奎琳·马蒂诺·萨米普·梅塔(Lohia Jacquelyn Martino Sameep Mehta)和亚历克桑德拉·莫杰西洛维奇(Aleksandra Mojsilovic)。2018.AI Fairness 360:一个可扩展的工具包,用于检测理解和减轻不必要的算法偏见。arXiv预印本arXiv:1810.01943.“},{”key“:”e_1_3_2_1_5_1“,”volume-title“:”FAT-ML Workshop.“,“author”:“Berk R.”,“unstructured”:“R.Berk,H.Heidari,S.Jabbari,M.Joseph,M.Kearns,J.Morgenstern,S.Neel,and A.Roth,2017。公平回归的凸框架。FAT-ML研讨会。R.Berk、H.Heidari、S.Jabbari、M.Joseph、M.Kearns、J.Morgenstern、S.Neel和A.Roth。2017年,公平回归凸框架。FAT-ML车间。“},{”key“:”e_1_3_2_1_6_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1177 \/0049124118782533”},“key”:“e_1_ 3_2_1 _7_1”,“doi-assert-by”:“publisher”,”doi“:”10.1126\/science.187.4175.398“}“}”,{“key”:“e1_3_2_19_1”,“doi-asserted-by”:“crossref”,”非结构化“:”Sumon Biswas和Hridesh Rajan。2021.公平预处理:理解机器学习管道中数据转换器的组成公平性。在ACM联合欧洲软件工程会议和软件工程基础研讨会(ESEC\/FSE)上(即将发布)。Sumon Biswas和Hridesh Rajan。2021.公平预处理:理解机器学习管道中数据转换器的组成公平性。在ACM联合欧洲软件工程会议和软件工程基础研讨会(ESEC\/FSE)上(即将发布)。“,”DOI“:”10.1145\/3468264.3468536“},{”key“:”e_1_3_2_10_1“,”DOI-asserted-by“:”publisher“,“DOI”:“10.1145\/23236024.3264838”},“{”密钥“:”e_1_3_2_11_1“,”DOI-asserted-by“:”publishers“,”DI:”10.1093\/iwc\/iwv046“}”,{“key”:“e_1_ 3_2_12_1”,“DOI-assert-by”:“publisher”,“DOI”:“10.1109\/ICDMW.2009.83”},{“key”:“e_1_3_2_13_1”,”DOI-asserted-by“:”publisher“,”DOI“:”10.1109\/ICDM.2013.114“},{“key”:“e_1_3_2_14_1”,“DOI-asserted-by”:“publisher”,”DOI“:”10.1007\/s10618-010-0190-x“}”,{”key“:”e_1_ 3_2_1_15_1“,”volume-title“:”Karthikeyan Natesan Ramamurthy,and Kush R Varshney“,”author“:”Calmon Flavio“,”year“2017”,“unstructured”:“弗拉维奥·卡尔蒙(Flavio Calmon)、丹尼斯·韦(Dennis Wei)、巴努基兰·文扎穆里(Bhanukiran Vinzamuri)、卡尔蒂基安·内特桑·拉马穆尔西(Karthikeyan Natesan Ramamurthy)和库什·瓦什尼。2017 . 优化预处理以防止歧视。神经信息处理系统进展。3992\u20134001。弗拉维奥·卡尔蒙(Flavio Calmon)、丹尼斯·韦(Dennis Wei)、巴努基兰·文扎穆里(Bhanukiran Vinzamuri)、卡尔蒂基安·内特桑·拉马穆里(Karthikeyan Natesan Ramamurthy)和库什·瓦什尼(Kush R Varshney)。2017.针对歧视预防的优化预处理。神经信息处理系统进展。3992\u20134001.“},{”key“:”e_1_3_2_1_16_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3287560.3287586”},“key”:“e_1_ 3_2_17_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3368089.3409697“}”,{和蒂姆·门齐斯(Tim Menzies),2019年。公平软件工程:超参数优化案例研究。阿西夫:1905.05786。Joymallya Chakraborty Tianpei Xia Fahmid M.Fahid和Tim Menzies。2019.公平软件工程:超参数优化案例研究。arxiv:1905.05786.“},{”key“:”e_1_3_2_1_19_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3287560.3287594”},“key”:“e_1_ 3_2_1_20_1”,“doi-assert-by”:“publisher”,”doi“:”10.1089\/big.2016.047。公平的衡量和误判:公平机器学习的批判性评论。arXiv预打印arXiv:1808.00023。萨姆·科贝特·戴维斯和莎拉·戈尔。2018年,公平的衡量和误判:公平机器学习的批判性回顾。arXiv预印本arXiv:1808.00023.“},{“key”:“e_1_3_2_1_22_1”,“doi-asserted-by”:“publisher”,“doi”:“10.1145\/3097983.3098095”},“key“:”e_1_ 3_2_1_2 3_1“,”doi-assert-by“:”publisher“,:“10.1145\/2783258.2783311”},{“密钥”:“e_1_3_2_1_25_1”,“doi-asserted-by”:“publisher“,”DOI“:”10.1007\/s00766-009-0075-y“},{“key”:“e_1_3_2_1_26_1”,“DOI-asserted-by”:“publisher”,”DOI:“10.1145\/3287560.3287589”},“key“:”e_1_a_2_1_27_1“,“doiasserted-by Hardt Eric Price和Nati Srebro,2016年。监督学习中的机会平等。神经信息处理系统进展。3315\u20133323。莫里茨·哈德·埃里克·普莱斯(Moritz Hardt Eric Price)和纳蒂·斯雷布罗(Nati Srebro)。2016年,监督学习机会均等。神经信息处理系统进展。3315\u20133323.“},{”key“:”e_1_3_2_1_29_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145”,{“key”:“e_1_ 3_2_1_30_1”,“unstructured”:“Hans Hofmann.[n.d.].Statlog(德语信用数据)数据集。http://\/archive.ics.uci.edu \/ml\/datasets\/Statlog+(德语+信用+数据)。].Statlog(德国信贷数据)数据集。http:\/\/archive.ics.uci.edu\/ml\/datasets\/statlog+(德语+信用+数据)。“},{”key“:”e_1_3_2_1_31_1“,”doi断言“:”publisher“,”doi“:”10.1109\/RE.2019.00050“},{”key“:”e_1_3_2_1_32_1“,”unstructured“:”Max Hort Jie Zhang Federica Sarro and Mark Harman《Fairea:基准偏差缓解方法的模型行为变异方法》一文的在线附录。https:\/\/github.com/maxhort\/Fairea\/Max Hort Jie Zhang Federica Sarro和Mark Harman。【未注明日期】。Fairea论文的在线附录:基准偏差缓解方法的模型行为突变方法。https:\/\/github.com/maxhort\/Fairea\/“},{“key”:“e_1_3_2_1_33_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/ICST46399.2020.00018“}”,{”key“:”e_1_ 3_2_1_1_34_1“,”doi-assert-by“:”publisher“,:“publisher”,“doi”:“10.1109\/IC4.2009.4909197”},{“key”:“e_1_3_2_1_36_1”doi由“:”publisher断言,“doi”:“10.1007\\s10115-011-0463-8”},{“key”:“e_1_3_2_37_1”,“doi由”:“publisher”断言,“doi”:“10.1109\/ICDM.2010.50”},{“key”:“e_1_3_2_38_1”,“doi由”:“publisher”断言,“doi”:“10.1109\/ICDM.2012.45”},{“key”:“e_1_3_2_1_39_1”,“doi由”:“publisher”断言,“doi”:“10.1016\/j.in.2017.09.064”},{“key”:“e_1_3_2_1_40_1”,“doi-asserted-by“:”publisher“,”doi“:”10.1007\/978-3642-33486-3_3“},{“key”:“e_1_3_2_1_41_1”,“volume-title”:“机器学习研究论文集”,“卷”:“80”,“author”:“Kearns-Michael”,“year”:“2018”,“unstructured”:“迈克尔·卡恩斯(Michael Kearns)、赛斯·内尔(Seth Neel)、亚伦·罗斯(Aaron Roth)和吴志伟(Zhiwei Steven Wu)。2018 . 防止公平推诿:子群体公平的审计和学习。机器学习研究论文集,第80卷。PMLR,瑞典斯德哥尔摩Stockholmsm\u00e4ssan。2564\u20132572。http://\/crocesses.mlr.press\/v80\/kearns18a.html迈克尔·卡恩斯、赛斯·内尔、亚伦·罗斯和吴志伟。2018.防止公平推诿:子集团公平的审计和学习。机器学习研究论文集,第80卷。PMLR,瑞典斯德哥尔摩Stockholmsm\u00e4ssan。2564\u20132572。http:\/\/procedures.mlr.press\/v80\/kearns18a.html“},{“key”:“e_1_3_2_1_42_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1145\/3287560.3287592“}、{“密钥”:“e_1_3_2_1_43_1”、“非结构化”:“Jon Kleinberg Sendhil Mullainathan和Manish Raghavan.2016。公平确定风险分数的内在权衡。arXiv预印arXiv:1609.05807。Jon Kleinberg Sendhil Mullainathan和Manish Raghavan。2016年,公平确定风险评分的内在权衡。arXiv预印本arXiv:1609.05807.“},{“key”:“e_1_3_2_1_44_1”,“unstructured”:“Ron Kohav.[n.d.].成人数据集.http://\/archive.ics.uci.edu\/ml\/datasets\/active.Ron Koharv.[n.d.].Adult数据集.http:\\/archive.ics.uci.edu\/ml\/datasets\/active.”},“key“:”e_13_2_1_45_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1145\/3377812.3382146“},{”key“:”e_1_3_2_1_46_1“,“非结构化”:“尼娜雷·梅赫拉比·弗雷德·莫斯塔特·尼普苏塔·萨克塞娜·克里斯蒂娜·勒曼和阿兰·加尔斯蒂安。2019.机器学习中的偏见和公平性调查。arXiv预印arXiv:1908.09635。尼娜雷·梅赫拉比·弗雷德·莫斯塔特·恩里普苏塔·萨克塞娜·克里斯蒂娜·勒曼和阿兰·高尔斯蒂安。2019.机器学习中的偏见和公平性调查。arXiv预印本arXiv:1908.09635.“},{”key“:”e_1_3_2_1_47_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/2390231.2390245”},“key”:“e_1_ 3_2_1 _48_1”,“doi-assert-by”:“publisher”,”doi“:”10.1111\/1475-3995.00375“}”,{:“10.1016\/bs.adcom.2018.03.015”},{“key”:“e_1_3_2_1_50_1”,“doi-asserted-by”:“publisher“,”DOI“:”10.1145\/1401890.1401959“},{”key“:”e_1_3_2_1_51_1“,“unstructured”:“Geoff Pless Manish Raghavan Felix Wu Jon Kleinberg和Kilian Q Weinberger,2017。关于公平性和校准。神经信息处理系统进展。5680\u20135689。杰夫·普莱斯·曼尼什·拉加万·费利克斯·吴·乔恩·克莱恩伯格和基利安·温伯格。2017年,关于公平性和校准。神经信息处理系统进展。5680\u20135689.“},{”key“:”e_1_3_2_1_52_1“,”unstructured“:”propublica.[n.d.].propublica故事的数据\u2018machine bias\u2019。https:\/\/github.com\/propublica\/compas-analysis\/。propublica公司。【未注明日期】。前期报道\u2018machine bias \u2019的数据。https:\/\/github.com\/propublica\/compas-analysis\/。“},{”key“:”e_1_3_2_1_53_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1017\/S0269888913000039”},“key”:“e_1_a_2_1_54_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/TSE.2016.2532875“}0046“},{”键“:”e_1_3_2_1_56_1“,”doi-asserted-by“:”出版商“,”doi“:”10.1145\/3377811.3380420“},{“key”:“e_1_3_2_1_57_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/EuroSP.2017.29“}”,{”key“:”e_1_a_2_1_58_1“,”doi-assert-by“:”publisher“,“doi”:“10.1145\/3238147.3238165”},“key“:”e_3_2_59_1“”,“unstructured”:“Michael Wick and Jean-Baptiste Tristan.2019。解锁公平:重新审视权衡。神经信息处理系统进展。8783\u20138792。迈克尔·威克和珍妮·巴普蒂斯特·特里斯坦。2019.解锁公平:重新审视权衡。神经信息处理系统进展。8783\u20138792.“},{”key“:”e_1_3_2_1_60_1“,”volume-title“:”Manuel Gomez Rogriguez,and Krishna P Gummadi“,“作者”:“Zafar Muhammad Bilal”,“年份”:“2017”,“非结构化”:“穆罕默德·比拉尔·扎法尔(Muhammad Bilal Zafar)、伊莎贝尔·瓦莱拉(Isabel Valera)、曼努埃尔·戈麦斯·罗格里格斯(Manuel Gomez Rogriguez)和克里希纳·普·古马迪。2017 . 公平约束:公平分类的机制。人工智能与统计。962\u2013970。穆罕默德·比拉尔·扎法尔(Muhammad Bilal Zafar)、伊莎贝尔·瓦莱拉(Isabel Valera)、曼努埃尔·戈麦斯·罗格里格斯(Manuel Gomez Rogriguez)和克里希纳·普·古马迪。2017年。公平约束:公平分类机制。人工智能与统计。962\u2013970.“},{”key“:”e_1_3_2_1_61_1“,”volume-title“:”机器学习国际会议.325\u2013333“,”author“:”Zemel Rich“,”year“:”2013“,”unstructured“:”Rich Zemel、Yu Wu、Kevin Swersky、Toni Pitassi和Cynthia Dwork。2013 . 学习公平陈述。在机器学习国际会议上。325\u2013333。Rich Zemel、Yu Wu、Kevin Swersky、Toni Pitassi和Cynthia Dwork,2013年。学习公平陈述。在机器学习国际会议上。325\u2013333.“},{”key“:”e_1_3_2_1_62_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3278721.3278779”},“key”:“e_1_3_2_1_63_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/2642937.2642994“}”,{ICSE43902.2021.00129“},{”key“:”e_1_3_2_1_65_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/2931037.2931038“},{“key”:“e_1_3_2_1_66_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/tse.2019.2962027“}”,{”key“:”e_1_m2_1_67_1“,”doi-assert-by“:”publisher“,“10.18653\/v1\/D18-1521”},{“key”:“e_1_3_2_1_69_1”,“doi-asserted-by”:“publisher”,”DOI“:”10.1109\/ICDM.2011.72“}],“event”:{“name”:“ESEC\/FSE‘21:第29届ACM联合欧洲软件工程会议和软件工程基础研讨会”,“location”:“Athens Greece”,“首字母缩写”:“SESC\/FSE’21”,“赞助商”:[“SIGSOFT ACM软件工程特别兴趣小组”]},“container-title”:[”第29届ACM欧洲软件工程会议暨软件工程基础研讨会联合会议记录“],“original-title”:[],“link”:[{“URL”:“https:\/\/dl.ACM.org\/doi\/pdf\/10.1145\/3468264.3468565”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“存放“:{“date-parts”:[[2023,1,9]],“date-time”:“2023-01-09T16:11:57Z”,“timestamp”:1673280717000},“score”:1,“resource”:{”primary“:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/346264.3468568565”}},”subtitle“:[],”shorttitle“:[],“issued”:{“date-parts”:[2021,8,18]]}、“references-count”“:69,”alternative-id“:[”10.1145\/3468264.3468565“,”10.1145\/3468264“],“URL”:“http://\/dx.doi.org\/10.1145\/3468264.3468565”,“relationship”:{},“subject”:[],“published”:{“date-parts”:[[2021,8,18]]},”assertion“:[{”value“:”2021-08-18“,”order“:2,”name“:”published“,”label“:”published“,”group“:{”name“publication_history”,“label”:“publication history”}}}]}