{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部分”:[[2024,6,28]],“日期-时间”:“2024-06-28T18:21:07Z”,“时间戳”:1719598867994},“出版商位置”:“美国纽约州纽约市”,“引用-计数”:86,“出版者”:“ACM”,“内容-域”:“域”:[”dl.ACM.org“],“十字标记restriction“:true},”short-container-title“(重新限制)用法:[],“published-print”:{“date-parts”:[[2021,3,3]]},“DOI”:“10.1145\/3442188.3445888”,“type”:“proceedings-article”,“created”:{“date-ports”:[2021,3,3],“date-time”:“2021-03-03T01:26:24Z”,“timestamp”:1614734784000},《update-policy》:“http://\/dx.DOI.org\/10.1145\/crossmark-policy”,“source”“:”Crossref“,”is-referenced-by-count“:63,”title“:[“我们无法测量,我们无法理解”],“前缀”:“10.1145”,“作者”:[{“给定”:“McKane”,“家族”:“Andrus”,“sequence”:“first”,“affiliation”:[}“name”:“AI上的伙伴关系”}]},{“given”:“Elena”,“family”:“Spitzer”,”sequence“:”additional“,”affiliance“[{”name“:“人工智能上的伙伴合作关系”}]},}“给定的”:“Jeffrey”,“家庭”:“Brown”,“序列“:”附加“,“affiliation”:[{“name”:“Partnership on AI,Minnesota State University,Mankato”}]},{“given”:“Alice”,“family”:“Xiang”,“sequence”:“additional”,“affaliation”:[{(名称):“Sony AI,Partnership-on AI”}]],“member”:“320”,“published-on-line”:{“date-parts”:[2021,3]]}、“reference”:[}“key”:”e_1_3_2_1_1_1_1“,“volume-title”:“2019年美国人工智能学会关于人工智能、道德和社会的会议记录。美国人工智能协会,美国檀香山,445-451”,“作者”:“Andrus McKane”,“非结构化”:“McKane Andrus和Thomas K.Gilbert。2019。走向公正的测量理论:机器学习的原则性社会测量保证计划。在2019年AAAI/ACM人工智能、伦理和社会会议记录中。ACM,美国火奴鲁鲁,邮编:445-451。https:\/\/doi.org\/10.1145\/3306618.3314275 10.1145\/33066 18.3314275-Makane Andrus和Thomas K.Gilbert。2019.走向公正的测量理论:机器学习的原则性社会测量保证计划。2019年AAAI\/ACM人工智能、道德和社会会议记录。美国夏威夷州檀香山ACM,445-451。https:\/\/doi.org\/10.1145\/3306618.3314275“},{“key”:“e_1_3_2_1_2_1”,“unstructured”:“McKane Andrus Elena Spitzer and Alice Xiang.2020。努力解决算法偏差?不要忽视人口数据的作用。https:\/\/www.partnershiponai.org\/人口统计学数据\/麦卡娜·安德鲁斯·埃琳娜·斯皮策和爱丽丝·香。2020年,致力于解决算法偏差?不要忽视人口数据的作用。https:\/\/www.partnershiponai.org\/人口统计学-数据\/“},{“key”:“e_1_3_2_1_3_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1177\/146879410100100307“}”,{”key“:”e_1_ 3_2_1_4_1“,”volume-title“:”美国人与隐私:担忧、困惑和感觉对个人信息缺乏控制“,”author“:”Auxier Brooke“,”年份:“2019”,“非结构化”:“布鲁克·奥西尔、李·雷尼、莫妮卡·安德森、安德鲁·佩林、马杜·库马尔和艾丽卡·特纳。2019.美国人与隐私:担忧、困惑和对个人信息缺乏控制。皮尤研究中心:互联网、科学技术(博客)。2019年11月15日(2019年)。布鲁克·奥西尔、李·雷尼、莫妮卡·安德森、安德鲁·佩林、马杜·库马尔和艾丽卡·特纳。2019.美国人与隐私:担忧、困惑和对个人信息缺乏控制。皮尤研究中心:互联网、科学技术(博客)。2019年11月15日。“},{“key”:“e_1_3_2_1_5_1”,“volume-title”:“超越偏见:重新想象刑法中的‘道德人工智能’术语。SSRN电子期刊”,“作者”:“巴拉巴斯·切尔西”,“年份”:“2019年”,“非结构化”:“切尔西·巴拉巴斯。2019.超越偏见:重想刑法中的’道德人工智能术语。SSRNA电子期刊(2019)https:\/\/doi.org\/10.2139\/ssrn.3377921 10.2139\/srsrn.3377921 Chelsea Barabas。2019.超越偏见:重新想象刑法中“道德人工智能”的术语。SSRN电子期刊(2019)。https:\/\/doi.org\/10.2139\/ssrn.3377921“},{“key”:“e_1_3_2_1_6_1”,“volume-title”:“公平、问责制和透明度会议。PMLR,62-76”,“author”:“巴拉巴斯-切尔西”,“year”:“2018”,“unstructured”:“切尔西·巴拉巴斯(Chelsea Barabas)、维尔扎夫人(Madars Virza)、卡西克·迪纳卡(Karthik Dinakar)、伊藤佐一(Joichi Ito)和乔纳森·兹特伦(Jonathan Zittrain)。2018 . 干预胜于预测:重新定义精算风险评估的道德辩论。在公平、问责制和透明度会议上。PMLR,62-76。切尔西·巴拉巴斯(Chelsea Barabas)、维尔扎夫人(Madars Virza)、卡西克·迪纳卡(Karthik Dinakar)、伊藤佐一(Joichi Ito)和乔纳森·兹特兰(Jonathan Zittrain)。2018.干预预测:重新定义精算风险评估的道德辩论。在公平、问责制和透明度会议上。PMLR,62--76.“},{“key”:“e_1_3_2_1_7_1”,“volume-title”:“迈克尔·卡特尔,P.M.克拉夫特,詹妮弗·李,尚卡·纳拉扬,弗兰齐斯卡·普茨,丹妮拉·拉兹,布莱恩·罗比克,阿伦·塔姆,阿比尔·沃尔杜,梅格·杨。”,“作者”:“巴古提·比桑”,“年份”:“2020年”,“非结构化”:“比桑·巴古提(Bissan Barghouti)、科琳娜·宾茨(Corinne Bintz)、达马·戴利(Dharma Dailey)、米卡·爱泼斯坦(Micah Epstein)、维维安·盖特勒(Vivian Guetler)、伯纳斯·赫尔曼(Bernease Herman)、帕·奥斯曼·乔布(Pa Ousman Jobe)、迈克尔·卡特尔(Michael Katell)、P.M.克拉夫特(P.Krafft)、詹妮弗·李(Jennifer Lee)、珊卡·纳拉扬(Shankar Narayan)、弗兰齐斯卡·普茨(Franziska Putz)、丹妮拉·拉兹(Daniella Raz)、布莱恩。2020 . 算法公平工具包。https:\/\/www.acluwa.org\/AEKit Bissan Barghouti、Corinne Bintz、Dharma Dailey、Micah Epstein、Vivian Guetler、Bernase Herman、Pa Ousman Jobe、Michael Katell、P.M.Krafft、Jennifer Lee、Shankar Narayan、Franziska Putz、Daniella Raz、Brian Robick、Aaron Tam、Abiel Woldu和Meg Young。2020.算法公平工具包。https:\/\/acluwa.org/AEKit“},{“key”:“e_1_3_2_1_8_1”,“首页”:“671”,“文章标题”:“大数据的差异影响”,“卷”:“104”,“作者”:“Barocas Solon”,“年份”:“2016”,“非结构化”:“Solon Barocas and Andrew D.Selbst.2016。大数据的差异影响。加州法律评论104(2016),671。https:\/\/heinliner.org/HOL\/page?handle=hein.joards\/calr104&id=695&div=&collection=Solon Barocas和Andrew D.Selbst。2016年,大数据的不同影响。《加利福尼亚州法律评论》104(2016),671。https:\/\/heinonline.org\/HOL\/页面?handle=hein.journals\/calr104&id=695&div=&collection=“,”journal-title“:”California Law Review“},{“key”:“e_1_3_2_1_9_1”,“volume-title”:“John Richards,Diptikalyan Saha,Prasanna Sattigeri,Moninder Singh,Kush R.Varshney,and Yunfeng Zhang。”,“作者”:“Bellamy Rachel K.e.”,“年份”:“2018”,“非结构化”:“Rachel K.e。贝拉米、昆塔尔·戴伊、迈克尔·欣德、塞缪尔·霍夫曼、斯蒂芬妮·胡德、卡巴里亚·坎南、普拉内·洛希亚、杰奎琳·马蒂诺、萨米普·梅塔、阿列克桑德拉·莫杰西洛维奇、西玛·纳加、卡提基安·内森·拉马穆尔西、约翰·理查兹、迪普蒂卡利安·萨哈、普拉桑娜·萨蒂盖里、莫宁德·辛格、库什·瓦什尼和张云峰。2018 . AI公平360:用于检测、理解和缓解不需要的算法偏差的可扩展工具包。arXiv:1810.01943[cs](2018年10月)。http://\/arxiv.org\/abs\/1810.01943瑞秋·K·E·贝拉米、昆塔尔·戴伊、迈克尔·欣德、塞缪尔·霍夫曼、斯蒂芬妮·胡德、卡巴里亚·坎南、普拉内·洛希亚、杰奎琳·马蒂诺、萨米普·梅塔、阿列克桑德拉·莫杰西洛维奇、西玛·纳加尔、卡蒂基安·内森·拉马穆尔西、约翰·理查兹、迪普蒂卡利安·萨哈、普拉桑娜·萨蒂盖里、蒙因德·辛格、库什·瓦什尼,和张云峰。2018年,AI公平360:检测、理解和缓解不需要的算法偏差的可扩展工具包。arXiv:1810.01943[cs](2018年10月)。http://\/arxiv.org\/abs\/1810.01943“},{“key”:“e_1_3_2_10_1”,“volume-title”:“Bennett and Os Keyes”,“author”:“Cynthia”,“year”:“2020”,“unstructured”:“辛西娅·贝内特和Os Keyes.200.公平的意义是什么?:残疾、人工智能和司法的复杂性。ACM SIGACCESS可访问性和计算125(2020年3月),1-1。https:\/\/doi.org\/10.1145\/3386296.3386301 10.1145\/33868296.3386301 Cynthia L.Bennett和Os Keyes。2020年。公平的意义何在残疾、人工智能和司法的复杂性。ACM SIGACCESS可访问性和计算125(2020年3月),1--1。https:\/\/doi.org\/10.1145\/3386296.3386301“},{”key“:”e_1_3_2_11_1“,”first page“:“803”,”article-title“:”Algorithmic Affirmative Action Legal“,“volume”:“108”,“author”:“Bent Jason R”,“year”:“2020”,“unstructured”:“Jason R Bent.2020。Algorithyic Afformative Action Lega?Georgetown Law Journal 108(2020),803.Jason R Bot.2020。算法平权行动合法吗?《乔治敦法律杂志》108(2020),803.“,“新闻标题”:“乔治敦法律期刊”},{“key”:“e_1_3_2_12_1”,“volume-title”:“公平、问责制和透明度会议记录-FAT*'19”,“作者”:“本特豪尔·塞巴斯蒂安”,“非结构化”:“塞巴斯蒂安·本特豪尔和布鲁斯·海恩斯,2019。机器学习中的种族类别。《公平、问责制和透明度会议记录》(FAT*19)。美国乔治亚州亚特兰大ACM出版社,289--298。https:\/\/doi.org\/10.1145\/3287560.3287575 10.1145\/3287660.3288575塞巴斯蒂安·本特霍尔和布鲁斯·海恩斯。2019.机器学习中的种族分类。《公平、问责制和透明度会议记录》(FAT*19)。美国乔治亚州亚特兰大ACM出版社,289--298。https:\/\/doi.org\/10.1145\/3287560.3287575“},{”key“:”e_1_3_2_13_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3351095.3372877”},“key”:“e_1_3_2_14_1”,“unstructured”:“消费者金融保护局,2014。使用公开信息代表未确认的种族和族裔。(2014). https:\/\/www.consumerfinance.gov\/data-research\/research-reports\/using-publicy-available-information-to-proxy-for-nidentified-race-and-enationship\/消费者金融保护局。2014.使用公开信息代表未确认的种族和族裔。(2014). https:\/\/www.consumerfinance.gov\/data-research\/research-reports\/using-publicy-available-information-to-proxy-for-nidentified-race-and-egeneration\/“},{“key”:“e_1_3_2_15_1”,“unstructured”:“Brandee Butler.2020。欧盟要有效解决种族不公正问题,我们需要数据。半岛电视台。白兰地·巴特勒。2020.为了欧盟有效解决种族不公正问题,我们需要数据。半岛电视台。“},{”key“:”e_1_3_2_16_1“,”volume-title“:”Jennifer Rode、Anna Lauren Hoffmann、Niloufar Salehi和Lisa Nakamura“,”author“:”Cifor Marika“,”year“:”2019“,”unstructured“:”玛丽卡·西弗(Marika Cifor)、帕特里夏·加西亚(Patricia Garcia)、TL考恩(TL Cowan)、茉莉·劳尔(Jasmine Rault)、托妮娅·萨瑟兰(Tonia Sutherland)、安妮塔·萨伊·陈(Anita Say Chan)、詹妮弗·罗德(Jennifer Rode)、安。2019 . 女性主义数据宣言编号:https:\/\/www.manifestno.com/Marika Cifor、Patricia Garcia、TL Cowan、Jasmine Rault、Tonia Sutherland、Anita Say Chan、Jennifer Rode、Anna Lauren Hoffmann、Niloufar Salehi和Lisa Nakamura。2019.女性主义数据宣言编号:https:\/\/www.manifestno.com/“},{“key”:“e_1_3_2_1_17_1”,“unstructured”:“美国平等就业机会委员会等,1979年。问答旨在澄清员工选拔程序统一指南并提供通用解释。美国平等就业机会委员会等,1979年。问答旨在澄清员工选拔程序统一指南并提供通用解释。“},{”key“:”e_1_3_2_18_1“,”volume-title“:公平的衡量和误判:公平机器学习的批判性评论。arXiv:1808.00023[cs](Aug),”author“:”Corbett-Davies Sam“,“year”:“2018”,”unstructured“:”Sam Corbett-Davies and Sharad Goel.2018。公平的度量与误判:公平机器学习的批判性评论。arXiv:1808.00023[cs](2018年8月)。http://\/arxiv.org\/abs\/1808.00023萨姆·科贝特·达维斯和莎拉·戈尔。2018年,公平的衡量与误判:公平机器学习的批判性评论。arXiv:1808.00023[cs](2018年8月)。http://\/arxiv.org\/abs\/1808.00023“},{“key”:“e_1_3_2_19_1”,“unstructured”:“Kimberl\u00e9 Crenshaw.1989。淡化种族与性别的交叉:黑人女性主义对反歧视主义、女性主义理论和反种族主义政治的批判。u.池。法律f.(1989)139。Kimberl\u00e9克伦肖。1989年,种族与性别交叉的淡化:黑人女性主义对反歧视主义、女性主义理论和反种族主义政治的批判。u.池。Legal f.(1989)139.“},{”key“:”e_1_3_2_1_20_1“,”unstructured“:”Cara Crotty.2020。残疾自我鉴定修订表发布。https:\/\/www.constangy.com/肯定-行动-警报\/revised-form-forself-identification-of-disability Cara Crotty。2020年,发布了修订后的残疾自我鉴定表。https://www.constangy.com\/平权行动警报\/残疾自我识别修订表”},{“密钥”:“e_1_3_2_1_21_1”,“非结构化”:“d4bl.2020。数据4黑人的生命。https:\/\\/d4bl.org\/d4bl。2020年数据4黑人生活。https:\/\/d4bl.org\/“},{“key”:“e_1_3_2_1_22_1”,“volume-title”:“自动化决策中偏见的更广泛观点:反思认识论和动力学。arXiv:1807.00553[cs,math,stat](July),“author”:“Dobbe Roel”,“year”:“2018”,“unstructured”:“Roel Dobbe,Sarah Dean,Thomas Gilbert,and Nitin Kohli.2018。关于自动决策中偏见的更广泛观点:反思认识论和动力学。arXiv:1807.00553[cs,math,stat](2018年7月)。arXiv:1807.00553[cs,math,stat]http://\/arXiv.org\/abs\/1807.00553-Roel Dobbe、Sarah Dean、Thomas Gilbert和Nitin Kohli。2018年,自动化决策中偏见的更广泛观点:反思认识论和动力学。arXiv:1807.00553[cs,math,stat](2018年7月)。arXiv:1807.00553[cs,math,stat]http://\/arXiv.org\/abs\/1807.00553“},{“key”:“e_1_3_2_1_23_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1145\/3351095.3372878“}”,{”key“:”e_1_ 3_2_1_2 4_1“,”doi-assert-by“:”publisher“,_1_25_1“,“非结构化”:“欧洲议会和欧盟理事会,2016年。条例(欧盟)2016\/679(通用数据保护条例)。https:\/\/eur lex.europa.eu\/legalcontent\/EN\/TXT\/HTML\/?uri=CELEX:32016R0679&from=EN欧洲议会和欧盟理事会。2016年法规(EU)2016\/679(一般数据保护法规)。https:\/\/eur-lex.europa.eu\/legalcontent\/EN\/TXT\/HTML\/?uri=CELEX:32016R0679&from=EN“},{“key”:“e_1_3_2_1_26_1”,“volume-title”:“联邦数据保护法案”,“author”:“德国联邦议院”,“year”:“2017”,“unstructured”:“German Bundestag 2017”。2017年6月30日《联邦数据保护法》(BDSG)。,2097页。https:\/\/www.gesetze-im-internet.de\/englisch_bdsg\/englische_bdsg.html 2017年德国联邦议院。2017年6月30日《联邦数据保护法》(BDSG)。,2097页。https:\/\/www.gesetze-im-internet.de\/englisch_bdsg\/englische_bdsg.html“},{“key”:“e_1_3_2_1_27_1”,“volume-title”:“AAAI人工智能会议论文集”,“卷”:“33”,“作者”:“Ghili Soheil”,“年份”:“2019”,“非结构化”:“Soheil Ghili、Ehsan Kazemi和Amin Karbasi。2019 . 消除潜在的歧视:训练然后伪装。《AAAI人工智能会议论文集》,第33卷。3672--3680. Soheil Ghili、Ehsan Kazemi和Amin Karbasi。2019.消除潜在歧视:训练然后伪装。《AAAI人工智能会议论文集》,第33卷。3672-3680.“},{”key“:”e_1_3_2_1_28_1“,”volume-title“:”第29届神经信息处理系统会议(NIPS)“,”author“:”Goodman Bryce W“,”year“:”2016“,”unstructured“:”Bryce W-Goodman。2016。迈向负责任算法的一步?算法歧视和欧盟一般数据保护。第29届神经信息处理系统会议(NIPS 2016),巴塞罗那。NIPS基础。布莱斯·古德曼。2016.朝着负责任的算法迈出了一步?算法歧视和欧盟一般数据保护。在巴塞罗那举行的第29届神经信息处理系统会议(NIPS 2016)上。NIPS基础。“},{”key“:”e_1_3_2_1_29_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145 \/3351095.3372840”},“key”:“e_1_ 3_2_1_30_1”,“volume-title”:“Mahdi Milani Fard,and Serena Wang”,“author”:“Gupta Maya”,“year”:“2018”,“unstructured”:“Maya Gupta,Andrew Cotter,Mahdi Milani Fard.,and Serenea Wang.2018.代理公平。arXiv:1806.11212[cs,stat](2018年6月).arXiv:1806.11212[cs,stat]http://\/arXiv.org\/abs\/1806.11212玛娅·古普塔、安德鲁·科特、马赫迪·米拉尼·法德和塞雷娜·王。2018年,代理公平。arXiv:1806.11212[cs,stat](2018年6月)。arXiv:1806.11212[cs,stat]http://\/arXiv.org\/abs\/1806.11212“},{“key”:“e_1_3_2_1_31_1”,“doi-asserted-by”:“publisher”,“doi”:“10.1007\/s10618-014-0393-7”},“key“:”e_1_as_2_1_32_1“,“volume-title”:“Morgan Klaus Scheuerman,and Stacy M.Branham”,“author”:“Hamidi Foad”,“year”:“2018”,“unstructured”“:”Foad Hamidi、Morgan Klaus Scheuerman和Stacy M。布兰纳姆。2018 . 性别认同还是性别缩减嵌入式性别识别系统的社会影响。在2018 CHI计算机系统中的人为因素会议记录-CHI’18。ACM出版社,加拿大蒙特利尔QC,1-13。https:\/\/doi.org\/10.1145\/3173574.31735582 10.1145\/3173544.3173582 Foad Hamidi、Morgan Klaus Scheuerman和Stacy M.Branham。2018年,性别认同还是性别缩减嵌入式性别识别系统的社会影响。2018年CHI计算机系统人为因素会议记录-CHI'18。ACM出版社,蒙特利尔QC,加拿大,1-13。https:\/\/doi.org\/10.1145\/3173574.3173582“},{“key”:“e_1_3_2_1_33_1”,“doi-asserted-by”:“publisher”、“doi”:“10.1145\/3351095.3372826”}、{“密钥”:“e_1_3_1_34_1”、”doi-assert-by“:”publisher“,”doi“:”10.2307\/3178066“}适用于机器的人类法律:“色盲”计算机的危险”,“作者”:“哈内德·扎克”,“年份”:“2019年”,“非结构化”:“扎克·哈内德和汉娜·瓦拉赫。2019.将人类法律延伸至机器:“色盲”计算机的危险。佛罗里达州立大学法律评论,即将出版(2019年)。扎克·哈内德和汉娜·瓦拉赫。2019.将人类法律延伸至机器:“色盲”计算机的危险。佛罗里达州立大学法律评论,即将出版(2019年)。“},{”key“:”e_1_3_2_1_36_1“,”volume-title“:”重复损失最小化中没有人口统计的公平性。arXiv:1806.08010[cs,stat](7月),”author“:”Hashimoto Tatsunori B.“,”year“:”2018“,”unstructured“:”Tatsunoi B.Hashimoto.,Megha Srivastava,Hongseok Namkoong,and Percy Liang.2018。重复损失最小化中的无人口统计公平。arXiv:1806.08010[cs,stat](2018年7月)。arXiv:1806.08010[cs,stat]http:\/\/arXiv.org\/abs\/1806.08010 Tatsunori B.Hashimoto、Megha Srivastava、Hongseok Namkoong和Percy Liang。2018年,在重复损失最小化中实现无人口统计的公平。arXiv:1806.08010[cs,stat](2018年7月)。arXiv:1806.08010[cs,stat]http://\/arXiv.org\/abs\/1806.08010“},{“key”:“e_1_3_2_1_37_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1080\/1369118X.2019.1573912“}”,{”key“:”e_1_ 3_2_1_1_38_1“,”doi-assert-by“:”publisher“,3_2_1_39_1“,”首页“:”1“,”文章标题“:”那么什么“应该”,“卷”:“3”,“作者”:“Howell Junia”,“年份”:“2017年”,“非结构化”:“Junia Howell和Michael O.Emerson。2017.那么我们应该使用什么?评估五种种族措施对社会不平等标记的影响。种族与民族社会学3,1(2017年1月),14-30。https:\/\/doi.org\/10.1177\/2332649216648465 10.1177\/233249216648465 Junia Howell和Michael O.Emerson。2017年。那么我们应该使用什么?评估五项种族措施对社会不平等标记的影响。种族和民族社会学3,1(2017年1月),14-30。https:\/\/doi.org\/10.1177\/2332649216648465“,“journal-title”:“评估五种种族措施对社会不平等标记的影响。《种族与民族社会学》},{“key”:“e_1_3_2_1_40_1”,“doi断言”:“publisher”,“doi”:“10.1145\/3351095.3375674”},{“key”:“e_1_3_2_1_41_1”,“volume title”:“Crossing the Quality Chasm:A New Health System for the 21st Century”,“author”:“Institute of Medicine(US)Committee on Quality of Health Care in America.2001.”,“nonstructured”:“美国医学研究所美国医疗质量委员会。2001.跨越质量鸿沟:21世纪的新卫生系统。美国国家学院出版社,华盛顿特区。http://www.ncbi.nlm.nih.gov\/books\/NBK222274\/美国医学研究所美国医疗质量委员会。2001.跨越质量鸿沟:21世纪的新卫生系统。美国国家学院出版社,华盛顿特区。http://www.ncbi.nlm.nih.gov\/books\/NBK222274\/“},{“key”:“e_1_3_2_1_42_1”,“volume-title”:“Jacobs and Hanna Wallach”,“author”:“Abigail”,“year”:“2019”,“unstructured”:“Abigail Z.Jacobs andHanna Walleach.2019.测量与公平性。arXiv:1912.05511[cs](2019年12月)。arXiv:1912.05511[cs]http://\/arXiv.org\/abs \/1912.05511阿比盖尔Z。雅各布斯和汉娜·瓦拉赫。2019.计量与公平。arXiv:1912.05511[cs](2019年12月)。arXiv:1912.05511[cs]http:\/\/arXiv.org/abs\/19120.55511“},{“key”:“e_1_3_2_1_43_1”,“volume title”:“国际机器学习会议。PMLR,3000-3008”,“author”:“Jagielski Matthew”,“year”:“2019”,“nonstructured”:“Matthew Jagielski、Michael Kearns、Mao Jieming、Alina Oprea、Aaron Roth、Saeed Sharifi Malvajerdi和Jonathan Ullman。2019 . 不同的私人公平学习。在机器学习国际会议上。PMLR,3000--3008。马修·贾吉尔斯基(Matthew Jagielski)、迈克尔·卡恩斯(Michael Kearns)、毛杰明(Jieming Mao)、艾琳娜·奥普雷亚(Alina Oprea)、亚伦·罗斯(Aaron Roth)、赛义德·沙里菲·马尔瓦杰迪(Saeed Sharifi-Malvajerdi)和乔纳森·乌尔曼(Jonathan Ullman)。2019.不同的私人公平学习。在机器学习国际会议上。PMLR,3000--3008。“},{”键“:”e_1_3_2_1_44_1“,”非结构化“:”LLana James.2020。基于种族的新型冠状病毒肺炎数据可用于歧视种族化社区。http:\/\/theconversation.com/race-based-covid-19-data-may-be-used-to-discrimination-against-racialized-communities-138372 LLana James。2020年。基于种族的新型冠状病毒肺炎数据可用于歧视种族化社区。http://theconversation.com/race-based-covid-19-data-may-be-used-to-discrimination-against-racialized-communities-138372“},{“key”:“e_1_3_2_1_45_1”,“volume-title”:“联邦学习中的进步和开放问题。arXiv:1912.04977[cs,stat](Dec),“author”:“Kairouz-Peter”,“year”:“2019”,“unstructured”:“Peter Kairouz and Others.2019”。联合学习的进展和存在的问题。arXiv:1912.04977[cs,stat](2019年12月)。arXiv:1912.04977[cs,stat]http://\/arXiv.org\/abs\/1912.04977彼得·凯鲁兹等人。2019.联合学习的进展和存在的问题。arXiv:1912.04977[cs,stat](2019年12月)。arXiv:1912.04977[cs,stat]http:\/\/arXiv.org\/abs\/1912.04977“},{“key”:“e_1_3_2_1_46_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/ICDMW.2011.83“}”,{”key“:”e_1_ 3_2_1 _47_1“,”volume-title“:”2020年公平、问责制和透明度会议记录。ACM,西班牙巴塞罗那,45-55“,”author“:”Katell Michael“,“unstructured“:”迈克尔·卡特尔、梅格·杨、达马·戴利、伯纳斯·赫尔曼、维维安·盖特勒、阿伦·谭、科琳娜·宾兹、丹妮拉·拉兹和P.M.克拉夫特。2020年,实现算法公平的情境干预:来自实地的经验教训。《2020年公平、问责制和透明度会议记录》。西班牙巴塞罗那ACM,45-55。https:\/\/doi.org\/10.1145\/335095.3372874 10.1145\/3351095.3372874迈克尔·卡特尔、梅格·杨、达玛·戴利、伯纳斯·赫尔曼、维维安·盖特勒、阿伦·谭、科琳娜·宾兹、丹妮拉·拉兹和P.M.克拉夫特。2020年,实现算法公平的情境干预:来自实地的经验教训。《2020年公平、问责制和透明度会议记录》。ACM,西班牙巴塞罗那,45-55。https:\/\/doi.org\/10.1145\/3351095.3372874“},{“key”:“e_1_3_2_1_48_1”,“volume-title”:“盲目正义:加密敏感属性的公平。arXiv:1806.03281[cs,stat](June),“author”:“Kilbertus Niki”,“year”:“2018”,“unstructured”:“Niki Kilbertu,Adri\u00e0 Gasc\u00f3n,Matt J.Kusner,Michael Veale,Krishna P。Gummadi和Adrian Weller。2018 . 盲目的正义:具有加密敏感属性的公平。arXiv:1806.03281[cs,stat](2018年6月)。arXiv:1806.03281[cs,stat]http://\/arXiv.org\/abs\/1806.03281 Niki Kilbertus、Adri\u00e0 Gasc\u00f3n、Matt J.Kusner、Michael Veale、Krishna P.Gummadi和Adrian Weller。2018年,《盲目司法:加密敏感属性的公平》(Blind Justice:Fairness with Encrypted Sensitive Attributes)。arXiv:1806.03281[cs,stat](2018年6月)。arXiv:1806.03281[cs,stat]http:\/\/arXiv.org\/abs\/1806.03281“},{“key”:“e_1_3_2_1_49_1”,“volume-title”:“使用隐私保护数据进行公平决策。arXiv:1905.12744[cs](Jan),“author”:“Kuppam Satya”,“year”:“2020”,“unstructured”:“Satya Kuppam,Ryan Mckenna,David Pujol,Michael Hay,Ashwin Machanavajhala,and Gerome Miklau.2020●●●●。使用受隐私保护的数据进行公平决策。arXiv:1905.1744【cs】(2020年1月)。arXiv:1905.12744[cs]http://arXiv.org/abs\/190512.2744 Satya Kuppam、Ryan Mckenna、David Pujol、Michael Hay、Ashwin Machanavajjala和Gerome Miklau。2020年,利用隐私保护数据进行公平决策。arXiv:1905.12744[cs](2020年1月)。arXiv:1905.12744[cs]http://\/arXiv.org\/abs\/1905.12744“},{”key“:”e_1_3_2_1_50_1“,”volume-title“:”Chi“,”author“:”Lahoti Preethi“,“year”:“2020”,”unstructured“:”Preethi Lahoti、Alex Beutel、Jilin Chen、Kang Lee、Flavien Prost、Nithum Thain、Xuezhi Wang和Ed H。芝加哥。2020 . 通过对手调整学习实现无人口统计的公平。arXiv:2006.13114[cs,stat](2020年6月)。arXiv:2006.13114[cs,stat]http:\/\/arXiv.org\/abs\/2006.13114普雷西·拉霍蒂、亚历克斯·贝特尔、吉林·陈、康·李、弗拉维恩·普罗斯特、尼图姆·塞恩、王学智和Ed H.Chi。2020年,通过反向加权学习实现无人口统计的公平。arXiv:2006.13114[cs,stat](2020年6月)。arXiv:2006.13114[cs,stat]http://\/arXiv.org\/abs\/2006.13114“},{“key”:“e_1_3_2_1_51_1”,“volume-title”:“Cambridge Analytica如何激发伟大的隐私觉醒。Wired(3月),“author”:“Laposwsky Issie”,“year”:“2019”,“unstructured”:“Issie Laposky.2019”。剑桥分析如何引发伟大的隐私觉醒。有线电视(2019年3月)。https:\/\/www.wired.com/story\/cambridge-analytica-facebook-privacy-awakening\/Issie Lapowsky。2019.剑桥分析公司如何引发伟大的隐私觉醒。有线电视(2019年3月)。https:\/\/www.wired.com/story\/cambridge-analytica-facebook-privacy-awakening\/“},{“key”:“e_1_3_2_1_52_1”,“unstructured”:“LinkedIn.[n.d.].LinkedIn Recruiter:The Industry-Standard招聘工具。https:\//business.LinkedIn.com\/talent-solutions\/recuriter LinkedIn.[n.d]LinkedIn招聘人员:行业标准招聘工具。https:\/\/business.linkedin.com/talent-solutions\/recuriter“},{”key“:”e_1_3_2_1_53_1“,”首页“:”11“,”article-title“:”定性研究中的创新方法“,”volume“:“12”,”author“:”Maramwidze-Merrison Efrider“,”year“:”2016“,”unstructured“:”埃弗里德·马拉姆维泽-梅里森。2016 . 定性研究中的创新方法:访问组织精英进行面试的社交媒体窗口。12 , 2 (2016), 11 . 埃弗里德·马拉姆维泽-梅里森。2016年,《定性研究的创新方法:访问组织精英进行采访的社交媒体窗口》。12,2(2016),11.“,“新闻标题”:“访问组织精英进行采访的社交媒体窗口。“},{”key“:”e_1_3_2_1_54_1“,”volume-title“:”Andrew Smart和William S.Isaac“,”author“:”Jr Donald Martin“,“年份”:“2020年”,”unstructured“:”Donald Matin Jr.,Vinodkumar Prabhakaran,Jill Kuhlberg,Andrew Smart,and William S。艾萨克。2020 . 通过基于社区的系统动力学为更公平的机器学习制定参与式问题。arXiv:2005.07572[cs,stat](2020年5月)。arXiv:2005.07572[cs,stat]http://\/arXiv.org\/abs\/2005.07572小唐纳德·马丁、维诺德库马尔·普拉巴卡兰、吉尔·库尔伯格、安德鲁·斯马特和威廉·艾萨克。2020年,通过基于社区的系统动力学,为更公平的机器学习制定参与式问题。arXiv:2005.07572[cs,stat](2020年5月)。arXiv:2005.07572[cs,stat]http:\/\/arXiv.org/abs\/2005/07572“},{”键“:”e_1_3_2_1_55_1“,”非结构化“:”微软.2020。公平学习。https:\/\/github.com\/fairlearn\/fairlearn-Microsoft。2020年。Fairlearn。https:\/\/github.com/fairlearn\/fairlearn“},{“key”:“e_1_3_2_1_56_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1177\/1527476419837739“}”,{”key“:”e_1_A_2_1_57_1“,”volume-title“:”ACM关于人机交互的论文集3,CSCW(2019年11月),“author”:“Mulligan Deirdre K.”,“year”:“1909”,“unstructured”:“Deirdrede”Joshua A.K.Mulligan。Kroll、Nitin Kohli和Richmond Y.Wong。2019年,这件事被称为公平:实现技术价值的学科困惑。《ACM人机交互会议论文集3》,CSCW(2019年11月),1-36。https:\/\/doi.org\/10.1145\/3359221 arXiv:1909.11869 10.1145\/33592 21-Deirdre K.Mulligan、Joshua A.Kroll、Nitin Kohli和Richmond Y.Wong。2019年,这件事被称为公平:实现技术价值的学科困惑。《ACM人机交互会议论文集3》,CSCW(2019年11月),1-36。https:\/\/doi.org\/10.1145\/3359221 arXiv:1909.11869“},{“key”:“e_1_3_2_1_58_1”,“unstructured”:“Mimi Onuoha.2020。当证据不足时。https:\/\/fivethirtyeight.com/features\/when-proof-is-not-enough\/Mimi Onuoha。2020年。当证据不足时。https:\/\/fivethirtyeight.com/features\/when-proof-is-not-enough\/“},{“key”:“e_1_3_2_1_59_1”,“首页”:“37”,“article-title”:“我们的数据体”,“卷”:“15”,“作者”:“佩蒂·塔瓦纳”,“年份”:“2018”,“非结构化”:“Tawana Petty、Mariella Saba、Tamika Lewis、Seeta Pe\u00f1a Gangadharan和Virginia Eubanks。2018 . 我们的数据体:回收我们的数据。2018年6月15日,37。Tawana Petty、Mariella Saba、Tamika Lewis、Seeta Pe\u00f1a Gangadharan和Virginia Eubanks。2018年,我们的数据体:回收我们的数据。June 15(2018),37.“,”journal-title“:“回收我们的数据”},{“key”:“e_1_3_2_1_60_1”,“volume-title”:“Jennifer Walker和Per Axelsson。”,“author”:“Rainie Stephanie Carroll”,“year”:“2019”,“unstructured”:“斯蒂芬妮·卡罗尔·雷尼(Stephanie Carroll Rainie)、塔胡·库库泰(Tahu Kukutai)、玛吉·沃尔特(Maggie Walter)、奥斯卡·路易斯·菲格罗-罗德(Oscar Luis Figueroa-Rodr \u00edguez)、詹妮弗·沃克(Jennifer Walker。2019 . 土著数据主权。《开放数据的状态:历史与地平线》(2019年),第300页。斯蒂芬妮·卡罗尔·雷尼(Stephanie Carroll Rainie)、塔胡·库库泰(Tahu Kukutai)、玛吉·沃尔特(Maggie Walter)、奥斯卡·路易斯·菲格罗-罗德(Oscar Luis Figueroa-Rodr \u00edguez)、詹妮弗·沃克(Jennifer Walker)和佩尔·阿克塞尔森(Per Axelsson)。2019年。土著数据主权。《开放数据的状态:历史与地平线》(2019),300。“},{“key”:“e_1_3_2_1_61_1”,“volume-title”:“负责任的人工智能在哪里遇到现实:实践者对转变组织实践的推动因素的看法。arXiv:2006.12358[cs](7月),“author”:“Rakova Bogdana”,《year》:“2020”,“unstructured”:“博格达娜·拉科娃(Bogdana Rakova)、杨晶莹(Jingying Yang)、亨丽特·克拉默(Henriette Cramer)和鲁曼·乔杜里(Rumman Chowdhury)。2020年,负责任的人工智能在何处实现:从业者对转变组织实践的促成因素的看法。arXiv:2006.12358[cs](2020年7月)。arXiv:2006.12358[cs]http://\/arXiv.org\/abs\/2006.12358博格达纳·拉科娃、杨静英、亨丽埃特·克拉默和鲁曼·乔杜里。2020年,负责任的人工智能在何处实现:从业者对转变组织实践的促成因素的看法。arXiv:2006.12358[cs](2020年7月)。arXiv:2006.12358[cs]http://\/arXiv.org\/abs\/2006.12358“},{“key”:“e_1_3_2_1_62_1”,“unstructured”:“Nani Jansen Reventlow.[n.d.]。数据收集不是欧洲种族主义问题的解决方案。https:\/\/www.aljazeera.com\/piences\/2020\/7\/29\/Data-collection-is-not-the-solution-for-europes-racism-problem\/?gb=真正的Nani Jansen Reventlow。【未注明日期】。数据收集不是解决欧洲种族主义问题的办法。https://www.aljazeera.com\/意见\/202\/7\/29\/数据收集不是解决欧洲种族主义问题的办法吗?gb=true“},{”key“:”e_1_3_2_1_63_1“,”volume-title“:”名称中有什么?在不访问受保护属性的情况下减少Bios中的偏差。arXiv:1904.05233[cs,stat](April“,”author“:”Romanov Alexey“,”year“:”2019“,”unstructured“:”阿列克谢·罗曼诺夫(Alexey Romanov)、玛丽亚·德阿尔塔加(Maria De-Arteaga)、汉娜·瓦拉赫(Hanna Wallach)、詹妮弗·查耶斯(Jennifer Chayes)、克里斯蒂安·博格斯(Christian Borgs)、亚历山德拉·乔尔德科娃(Alexandra Chouldechova)、萨欣·盖克(Sahin Geyik)、克里希纳姆·肯塔帕迪(Krishnaram Kenthapadi)、安娜·拉姆什基(Anna Rumshisky)和亚当·托曼·卡莱(Adam Tauman Kalai)。2019.名字中有什么?在不访问受保护属性的情况下减少Bios中的偏差。arXiv:1904.05233[cs,stat](2019年4月)。arXiv:1904.05233[cs,stat]http://\/arXiv.org\/abs\/1904.05233阿列克谢·罗曼诺夫(Alexey Romanov)、玛丽亚·德阿尔塔加(Maria De-Arteaga)、汉娜·瓦拉赫(Hanna Wallach)、詹妮弗·查耶斯(Jennifer Chayes)、克里斯蒂安·博格斯(Christian Borgs)、亚历山德拉·乔尔德科娃(Alexandra Chouldechova)、萨欣·盖克(Sahin Geyik)、克里希纳姆·肯塔帕迪(Krishnaram Kenthapadi)、安娜·拉姆什基(Anna Rumshisky)和亚当·托曼·卡莱。2019.名字中有什么?在不访问受保护属性的情况下减少Bios中的偏差。arXiv:1904.05233[cs,stat](2019年4月)。arXiv:1904.05233[cs,stat]http://\/arXiv.org\/abs\/1904.05233“},{“key”:“e_1_3_2_1_64_1”,“volume-title”:“Aequitas:A Bias and Fairness Audit Toolkit.arXiv:1811.05577[cs](四月),“author”:“Saleiro Pedro”,“year”:“2019”,“unstructured”:“Pedro Saleiro,Benedict Kuester,Loren Hinkson,Jesse London,Abby Stevens,Ari Anisfeld,套件T。鲁道夫和雷伊德·加尼。2019 . Aequitas:偏见和公平审计工具包。arXiv:1811.05577[cs](2019年4月)。http://\/arxiv.org\/abs\/1811.05577佩德罗·萨莱罗、本尼迪克特·库斯特、洛伦·欣克森、杰西·伦敦、艾比·史蒂文斯、阿里·阿尼斯菲尔德、基特·鲁道夫和雷伊德·加尼。2019.Aequitas:偏见和公平审计工具包。arXiv:1811.05577[cs](2019年4月)。http://\/arxiv.org\/abs\/1811.05577“},{”key“:”e_1_3_2_1_65_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1147\/JRD.2019.2945519”},“key”:“e_1_ _3_2_1_66_1”,“volume-title”:“ACM关于人机交互的论文集4,CSCW1(5月),“author”:“Scheurman Morgan Klaus”,“year”:“2020”,“unstructured”:“”摩根·克劳斯·谢尔曼(Morgan Klaus Scheuerman)、坎德丽亚·韦德(Kandrea Wade)、凯特林·卢斯蒂格(Caitlin Lustig)和杰德·布鲁贝克(Jed R.Brubaker)。2020年,《我们如何教算法看身份:在面部分析的图像数据库中构建种族和性别》。《ACM人机交互会议论文集》4,CSCW1(2020年5月),1-35。https:\/\/doi.org\/10.1145\/3392866 10.1145\/3392666摩根·克劳斯·谢尔曼、坎德雷亚·韦德、凯特琳·卢斯蒂格和杰德·布鲁贝克。2020年,《我们如何教算法看身份:在面部分析的图像数据库中构建种族和性别》。《ACM人机交互会议论文集》4,CSCW1(2020年5月),1-35。https:\/\/doi.org\/10.1145\/3392866“},{”key“:”e_1_3_2_1_67_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/3287560.3287598”},“key”:“e_1_3_2_1_68_1”,“unstructured”:“Suranga Seneviratne.2019”。丑陋的真相:科技公司正在跟踪和滥用我们的数据,我们几乎无能为力。http:\/\/The-conversation.com\/The-Ugly-Truth-Tech-Companies-Are-Tracking-and-missing-ur-Data-and-theres-ttle-Can-Do-127444 Suranga Seneviratne。2019.丑陋的事实:科技公司正在跟踪和误用我们的数据,我们无能为力。http://theconversation.com/The-Ugly-Truth-Tech-Companies-Are-Tracking-and-mussing-Our-Data-and-teres-Little-We-Can-Do-127444“},{“key”:“e_1_3_2_1_69_1”,“unstructured”:“Sachil-Singh.2020。在大流行期间收集基于种族的数据可能会助长危险的偏见。https:\/\/www.queensu.ca\/gazette\/stories\/collecting-race-based-data-during-pandemic-ma-fuel-dangerous-prejudices Sachil-Singh。2020年。大流行期间收集基于种族的数据可能会助长危险的偏见。https:\/\/www.queensu.ca\/gazette\/stories\/collecting-race-based-data-during-pandemic-ma-yfuel-dangerous-prejudices“},{“key”:“e_1_3_2_1_70_1”,“doi-asserted-by”:“publisher”,”doi“:”10.21105\/joss.01904“}”,{”key“:”e_1_ 3_2_1_1_71_1“,”doi-assert-by“:”publisher“,“doi”:“10.1177\/20539517136335”},{“键”:“e_1_3_2_1_72_1”,“卷时间”:“调节人工智能”,“作者”:“Tischbirek Alexander”,“非结构化”:“亚历山大·蒂施比雷克。2020年。人工智能与歧视:歧视歧视性系统。在调节人工智能方面。斯普林格,103-121。亚历山大·蒂施比雷克(Alexander Tischbirek)。2020.人工智能与歧视:对歧视性系统的歧视。在监管人工智能方面。Springer,103-121.“},{”key“:”e_1_3_2_1_73_1“,”unstructured“:”英国信息专员办公室,2020年。我们需要做什么来确保人工智能系统的合法性、公平性和透明度?https:\/\/ico.org.uk\/for-organisations\/guide-to-data-protection \/key-data-protection-themes\/guidance-on-ai-ai-and-data-production \/what-do-we-need-to-do to ensure-lawfunness-fairness-and-transparency-in-ai-systems\/英国信息专员办公室。2020年。我们需要做什么来确保人工智能系统的合法性、公平性和透明度?https:\/\/ico.org.uk\/for-organisations\/guide-to-data-protection \/key-data-protection-themes\/guidance-on-ai-ai-and-data-production \/what-do-we-need-to-do-to-sensure-lawfunness-fairness-and-transparency-in-ai-systems\/“},{“key”:“e_1_3_2_1_74_1”,“volume-title”:“LiFT:一个衡量ML应用程序公平性的可扩展框架。arXiv:2008.07433[cs](8月,“作者”:“Vasudevan Sriram”,“年份”:“2020年”,“非结构化”:“Sriram Vasudeven and Krishnaram Kenthapadi.2020”。LiFT:一个衡量ML应用程序公平性的可扩展框架。arXiv:2008.07433[cs](2020年8月)。https:\/\/doi.org\/10.1145\/3340531.3412705 10.1145\/3340551.3412705-Sriram Vasudevan和Krishnaram Kenthapadi。2020年。《LiFT:衡量ML应用程序公平性的可扩展框架》。arXiv:2008.07433[cs](2020年8月)。https:\/\/doi.org\/10.1145\/3340531.3412705“},{”key“:”e_1_3_2_1_75_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1177\/2053951717743530”},“key”:“e_1_3_2_1_76_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/3173574.3174014“}”,{:“民主数据:数据治理的关系理论。SSRN学术论文编号3727562。《社会科学研究网》,“作者”:“维尔乔恩·萨洛姆”,“年份”:“2020年”,“非结构化”:“萨洛姆·维尔乔恩”。2020 . 民主数据:数据治理的关系理论。SSRN学术论文编号3727562。纽约州罗切斯特市社会科学研究网络。https:\/\/doi.org\/10.2139\/ssrn.3727562 10.2139\/srsrn.3727562 Salome Viljoen。2020年,《民主数据:数据治理的关系理论》。SSRN学术论文编号3727562。纽约州罗切斯特市社会科学研究网络。https:\/\/doi.org\/10.2139\/ssrn.3727562“},{”key“:”e_1_3_2_1_78_1“,”首页“:”1“,”article-title“:”What-If工具:机器学习模型的交互式探索“,”volume“:“26”,“author”:“Wexler James”,“year”:“2020”,“unstructured”:“詹姆斯·韦克斯勒(James Wexler)、马希玛·普什卡纳(Mahima Pushkarna)、托尔加·博鲁巴西(Tolga Bolukbasi)、马丁·瓦滕伯格(Martin Wattenberg)、费尔南达·维尤(Fernanda Vi\u00e9gas)和金博·威尔逊(Jimbo Wilson)。2020 . 假设分析工具:机器学习模型的交互式探索。IEEE可视化和计算机图形汇刊26,1(2020年1月),56-65。https:\/\/doi.org\/10.109\/TVCG.2019.2934619 10.1109\/TVCG.2019.29344619詹姆斯·韦克斯勒、马希玛·普什卡纳、托尔加·博卢巴西、马丁·瓦滕伯格、费尔南达·维尤9e9gas和吉姆博·威尔逊。2020年。假设分析工具:机器学习模型的交互式探索。IEEE可视化和计算机图形汇刊26,1(2020年1月),56-65。https:\/\/doi.org\/10.109\/TVCG.2019.2934619“,”journal-title“:”可视化和计算机图形IEEE事务“},{“key”:“e_1_3_2_1_79_1”,“doi-asserted-by”:“publisher”,”doi“:”10.5325\/jinfopoli.8.2018.0078“}”,{”key“:”e_1_a_2_1_80_1“,”volume-title”:“”公平贷款:非抵押贷款的种族和性别数据有限。监督和调查小组委员会,金融服务委员会”,“作者”:“Williams Orice M”,“年份”:“2008年”,“非结构化”:“Orice M Williams。2008 . 公平贷款:非抵押贷款的种族和性别数据有限。众议院金融服务委员会监督和调查小组委员会(2008年)。arXiv:GAO-08-1023T Orice M Williams。2008.公平贷款:非抵押贷款的种族和性别数据有限。众议院金融服务委员会监督和调查小组委员会(2008年)。arXiv:GAO-08-1023T“},{”key“:”e_1_3_2_1_81_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1007\/s13347-019-00355-w”},“key”:“e_1_a_2_1_82_1”,“article-title”:“协调法律和技术方法以消除算法偏差”,“volume”:”88“,”author“:”Xian Alice“,”年份“:”2021“,”非结构化“:”Alice Xiang。2021 . 协调法律和技术方法与算法偏差。《田纳西州法律评论》88,3(2021)。Alice Xiang。2021.协调法律和技术方法以消除算法偏差。《田纳西州法律评论》88,3(2021)。“,”journal-title“:”Tennessee Law Review“},{“key”:“e_1_3_2_1_83_1”,“volume-title”:“Manuel Gomez Rogriguez,and Krishna P.Gummadi”,”author“:”Zafar Muhammad Bilal“,”year“:”2017“,”unstructured“:”Muhammad-Bilal Zafar,Isabel Valera,Manuel戈麦斯·Rogrigue z,and Krishna P。古马迪。2017 . 公平约束:公平分类机制。人工智能与统计。PMLR,962--970。http:\/\/procedures.mlr.press\/v54\/zafar17a.html穆罕默德·比拉尔·扎法尔、伊莎贝尔·瓦莱拉、曼努埃尔·戈麦斯·罗格里格斯和克里希纳·P·古马迪。2017年,公平约束:公平分类机制。人工智能与统计。PMLR,962--970。http:\/\/processes.mlr.press\/v54\/zafar17a.html“},{“key”:“e_1_3_2_1_84_1”,“first page”:《1375》,“article-title”:“理解得分社会中的歧视”,“volume”:”89“,“author”:“Zarsky Tal Z”,“year”:“2014”,“unstructured”:“Tal Z Zarsky.2014.理解得分社会的歧视。《华盛顿法律评论》89(2014), 1375 . 塔尔·扎尔斯基。2014.了解得分社会中的歧视。《华盛顿法律评论》89(2014),1375。“,“journal-title”:“华盛顿法律评论”},{“key”:“e_1_3_2_1_85_1”,“first-page”:“1”,“article-title“:“Assessing Fair Lending Risks Using Race\/Enthnicity Proxies”,“volume”:《64》,“author”:“Zhang Yan”,“year”:“2016”,“unstructured”:“张燕。2016 . 使用种族/种族代理评估公平贷款风险。《管理科学》64,1(2016年11月),178--197。https:\/\/doi.org\/10.1287\/mnsc.2016.2579 10.1287\/mnsC2016.2579张燕。2016.使用种族/种族代理评估公平贷款风险。《管理科学》64,1(2016年11月),178--197。https:\/\/doi.org\/10.1287\/mnsc.2016.2579“,”journal-title“:”Management Science“},{“key”:“e_1_3_2_1_86_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1007\/s10506-016-9182-5“}],“event”:{“name”:“FAccT'21:2021 ACM公平、问责和透明度会议”,“location”:“Virtual event Canada”,缩写词:“FAccT'21”,“赞助商”:[“”美国计算机协会“]},”container-title“:[”2021年美国计算机协会公平、问责和透明度会议记录“],”original-title”:[],”link“:[{”URL“:”https:\/\/dl.ACM.org\/doi\/pdf\/10.1145\/3442188.3445888“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],“存放“:{“date-parts”:[[2023,2,2],“date-time”:“2023-02-02T20:05:31Z”,“timestamp”:1675368331000},“score”:1,“resource”:{(主要):{”URL“:”https:\/\/dl.acm.org\/doi\/10.1145\/3442188.3445888 2021,3]]},“references-count“:86,”alternative-id“:[”10.1145\/3442188.3445888“,”10.1145\/3442188“],”URL“:”http://\/dx.doi.org\/10.1145\/34421188.34455888“,”relation“:{},”subject“:[],”published“:{”date-parts“:[2021,3]]},“assertion”:[{“value”:“2021-03-01”,“order”:2,“name”:“published”,“label”:“published”,“组”:{“名称”:“publication_history”,“标签”:“出版历史“}}]}}