跳到主要内容
10.1145/3617694.3623227acm会议文章/章节视图摘要出版物页面eaamo公司会议记录会议集合
研究论文
开放式访问

自动决策系统中反馈回路的分类及其与偏差的关系

出版:2023年10月30日 出版历史

摘要

基于预测的决策系统在各个领域越来越普遍。以前的研究表明,这种系统容易受到失控反馈回路的影响,例如,当警察被反复送回同一街区,而不管犯罪活动的实际速度如何,这会加剧现有的偏见。实际上,自动决策对系统本身具有动态反馈效应,在ML文献中有时被称为性能预测,随着时间的推移,这种效应可能会持续存在,这使得短视的设计选择难以控制系统的演变。虽然研究人员开始提出长期解决方案来防止不利结果(例如对某些群体的偏见),但这些干预措施在很大程度上取决于特别的建模假设,目前缺乏对基于ML的决策系统中反馈动态的严格理论理解。在本文中,我们使用动态系统理论的语言,这是应用数学的一个分支,用于分析具有动态行为的系统之间的相互联系,对基于ML的决策管道中的不同类型的反馈回路进行严格分类。通过回顾现有的学术工作,我们表明这种分类涵盖了算法公平社区中讨论的许多示例,从而为研究反馈回路提供了一个统一的原则性框架。通过定性分析,并通过推荐系统的模拟示例,我们展示了每种类型的反馈回路会影响哪些特定类型的ML偏差。我们发现,在基于ML的决策管道中,反馈回路的存在可以延续、加强甚至减少ML偏差。

工具书类

[1]
乔治·亚历山德鲁·亚当(George Alexandru Adam)、张春浩(Chun-Hao Kingsley Chang)、本杰明·海贝·凯恩斯(Benjamin Haibe-Kains)和安娜·戈登伯格(Anna Goldenberg),2020年。机器学习应用于医疗保健的潜在风险:模型和未来数据之间的意外反馈循环导致模型退化。第五届医疗保健机器学习会议论文集(机器学习研究论文集,第126卷),Finale Doshi-Velez、Jim Fackler、Ken Jung、David Kale、Rajesh Ranganath、Byron Wallace和Jenna Wiens(编辑)。PMLR,710-731。https://proceedings.mlr.press/v126/adam20a.html
[2]
朱莉娅·安格温(Julia Angwin)、杰夫·拉尔森(Jeff Larson)、苏里亚·马图(Surya Mattu)和劳伦·基什内尔(Lauren Kirchner)。2016.机器偏差。ProPublica,2016年5月23日(2016年),139-159。https://www.propublica.org/article/machine-bias-risk assessments-in-creminal-qualing
[3]
卡尔·约翰斯特伦和理查德·穆雷。2021.反馈系统:为科学家和工程师介绍。普林斯顿大学出版社。
[4]
Solon Barocas、Moritz Hardt和Arvind Narayanan。2019.公平与机器学习。fairmlbook.org。http://www.fairmlbook.org
[5]
约阿希姆·鲍曼(Joachim Baumann)、亚历山德罗·卡斯特尔诺沃(Alessandro Castelnovo)、里卡多·克鲁皮(Riccardo Crupi)、妮可·因弗拉迪(Nicole Inverardi)和丹尼尔·雷戈利(Daniele Regoli)。2023.需求偏差:生成有偏差合成数据的建模框架。《2023年ACM公平、问责制和透明度会议记录》(美国伊利诺伊州芝加哥)(FAccT’23)。美国纽约州纽约市计算机协会,1002-1013。https://doi.org/10.1145/3593013.3594058
[6]
Joachim Baumann、AnikóHannák和Christoph Heitz。2022.在算法决策中实施群体公平:充分条件下的效用最大化。《2022年ACM公平、问责制和透明度会议记录》(FAccT’22)。美国纽约州纽约市计算机协会,2315-2326。https://doi.org/10.1145/3531146.3534645
[7]
雅哈夫·贝查伍德(Yahav Bechavod)、卡特里娜·利吉特(Katrina Ligett)、亚伦·罗斯(Aaron Roth)、博·瓦格纳(Bo Waggoner)和吴志伟(Zhiwei Steven Wu)。2019.部分反馈在线分类机会均等。神经信息处理系统进展32,NeurIPS(2019)。
[8]
理查德·伯克(Richard Berk)、霍达·海达里(Hoda Heidari)、沙欣·贾巴里(Shahin Jabbari)、迈克尔·卡恩斯(Michael Kearns)和亚伦·罗斯(Aaron Roth)。2021.刑事司法风险评估中的公平性:最新社会学方法与研究50,1(2021),3–44。https://doi.org/10.1177/0049124118782533
[9]
Avrim Blum和Yishay Monsour。2007年。学习、后悔最小化和平衡。(2007年)。
[10]
乔伊·布伦维尼(Joy Buolamwini)和蒂姆尼特·盖布鲁(Timnit Gebru)。2018.性别阴影:商业性别分类中的交叉准确性差异。在《第一届公平、问责和透明度会议论文集》(《机器学习研究论文集》,第81卷)中,Sorelle A Friedler和Christo Wilson(编辑)。第77页至第91页。https://proceedings.mlr.press/v81/buolamwini18a.html
[11]
西蒙·卡顿和克里斯蒂安·哈斯。2020年,机器学习中的公平性:一项调查。(2020). http://arxiv.org/abs/2010.04053
[12]
艾利森·J·B。Brandon M.Chaney。Stewart和Barbara E。恩格尔哈特。2018年。推荐系统中的算法混淆如何增加同质性并降低效用。(2018), 224–232. https://doi.org/10.1145/3240323.3240370
[13]
陈永新,Tryphon T。乔治奥和米歇尔·帕文。2021.系统和控制中的最佳运输。《控制、机器人和自治系统年度回顾》4,1(2021),89-113。https://doi.org/10.1146/annurev-control-070220-100858
[14]
西尔维娅·齐亚帕、雷·江、汤姆·斯特普顿、阿尔多·帕奇亚诺、海因里希·江和约翰·阿斯兰尼德斯。2020年,以最佳运输实现公平的一般方法。第34届AAAI人工智能会议(2020年)。https://ojs.aaai.org/index.php/aaai/article/view/5771
[15]
亚历山德拉·卓德科娃和亚伦·罗斯。2018年,机器学习中的公平前沿。(2018), 1–13. http://arxiv.org/abs/1810.08810
[16]
亚历山德拉·卓德科娃和亚伦·罗斯。2020年,机器学习公平前沿概览。Commun公司。ACM 63,5(2020年4月),82–89。https://doi.org/10.1145/3376898
[17]
萨姆·科贝特·戴维斯(Sam Corbett-Davies)、艾玛·皮尔森(Emma Pierson)、阿维·费勒(Avi Feller)、莎拉·戈尔(Sharad Goel)和阿齐兹·胡克(Aziz Huq)。2017.算法决策与公平成本。第23届ACM SIGKDD知识发现和数据挖掘国际会议(KDD’17)会议记录。美国纽约州纽约市计算机协会,797-806。https://doi.org/10.1145/3097983.3098095
[18]
凯特·克劳福德。2016.人工智能的白人问题。《纽约时报》2016年6月25日。
[19]
Alexander D'Amour、Hansa Srinivasan、James Atwood、Pallavi Baljekar、D.Sculley和Yoni Halpern。2020.公平不是一成不变的:通过模拟研究加深对长期公平的理解。FAT*2020:2020年公平、问责制和透明度会议记录(2020年),525-534。https://doi.org/10.1145/3351095.3372878
[20]
罗宾·M·道斯(Robyn M Dawes)、大卫·福斯特(David Faust)和保罗·E·米尔(Paul E Meehl)。1989.临床与精算判断。《科学》2434899(1989),1668-1674。https://doi.org/10.1126/science.2648573
[21]
罗尔·多布(Roel Dobbe)、莎拉·迪恩(Sarah Dean)、托马斯·吉尔伯特(Thomas Gilbert)和尼汀·科利(Nitin Kohli)。2018年。自动化决策中偏见的更广泛观点:反思认识论和动力学。arXiv预印arXiv:1807.00553(2018)。
[22]
马修·埃利斯(Matthew Ellis)、海伦·杜兰德(Helen Durand)和帕纳吉蒂斯·D。克里斯托菲德斯。2014年,经济模型预测控制方法教程回顾。《过程控制杂志》24,8(2014)。http://dx.doi.org/10.1016/j.jprocont.2014.03.01
[23]
哈迪·埃尔扎恩、迈克尔·卡恩斯、沙欣·贾巴里、赛斯·内尔、扎卡里·舒兹曼、克里斯托弗·荣格和亚伦·罗斯。2019.分配问题中学习的公平算法。FAT*2019——2019年公平、问责制和透明度会议记录(2019年),170-179。https://doi.org/10.1145/3287560.3287571
[24]
Danielle Ensign、Sorelle A Friedler、Scott Neville、Carlos Scheidger、Suresh Venkatasubramanian、Mehryar Mohri和Karthik Sridharan。2018.有限反馈决策:预测性警务和累犯预测的误差范围。机器学习研究论文集83(2018),1-9。
[25]
Danielle Ensign、Sorelle A Friedler、Scott Neville、Carlos Scheidger、Suresh Venkatasubramanian和Christo Wilson。2018年,预测性警务中的失控反馈循环。机器学习研究论文集,第81卷。1–12. https://github.com/algofairship/
[26]
Sorelle A Friedler、Carlos Scheidger和Suresh Venkatasubramanian。2016年,关于公平的可能性。https://arxiv.org/abs/1609.07236
[27]
安德烈亚斯·福斯特(Andreas Fuster)、保罗·戈德斯密斯·宾厄姆(Paul Goldsmith-Pinkham)、塔伦·拉马多赖(Tarun Ramadorai)和安斯加·沃尔特(Ansgar Walther)。2022.可预测的不平等?机器学习对信贷市场的影响。《金融杂志》77,1(2022),5-47。https://doi.org/10.1111/jofi.13090
[28]
乔奥·伽马(Joáo Gama)、因德鲁定义的尤利奥拜顿涅德(Indrundefined zhi liobaitunedefined)、阿尔伯特·比费特(Albert Bifet)、米科拉·佩切尼茨基(Mykola Pechenizkiy)和阿卜杜勒哈米德·布查奇亚。2014年,《概念漂移适应调查》。ACM计算。Surv公司。46, 4 (3 2014). https://doi.org/10.1145/2223813
[29]
W M Grove、D H Zald、B S Lebow、B E Snitz和C Nelson。临床与机械预测:荟萃分析。心理评估12,1(3 2000),19-30。
[30]
莫里茨·哈德(Moritz Hardt)、米娜·贾加迪桑(Meena Jagadeesan)和塞莱斯汀·门德尔·德纳(Celestine Mendler-Dünner)。2022.执行力。《神经信息处理系统进展》,Alice H Oh、Alekh Agarwal、Danielle Belgrave和Kyunghyun Cho(编辑)。https://doi.org/10.48550/ARXIV.2203.17232
[31]
莫里茨·哈德(Moritz Hardt)、埃里克·马祖姆达尔(Eric Mazumdar)、塞莱斯汀·门德尔·德纳(Celestine Mendler-Dünner)和蒂亚娜·兹尼克(Tijana Zrnic)。2023.机器学习中的算法集体行动。arxiv:2302.04262
[32]
Moritz Hardt、Nimrod Megiddo、Christos Papadimitriou和Mary Wootters。2016年,战略分类。2016年ACM理论计算机科学创新会议论文集(ITCS’16)。美国纽约州纽约市计算机协会,111-122。https://doi.org/10.1145/2840728.2840730
[33]
莫里茨·哈德(Moritz Hardt)、埃里克·普莱斯(Eric Price)和内森·斯雷布罗(Nathan Srebro)。2016年,监督学习机会均等。神经信息处理系统进展(NIPS’16)。Curran Associates Inc.,美国纽约州Red Hook,3323-3331。
[34]
德鲁·哈维尔(Drew Harwell)。2018年。亚马逊的Alexa和谷歌主页显示出口音偏见,中文和西班牙语最难理解。https://www.scmp.com/magazines/post-magazine/long-reads/article/2156455/amazons-alexa-and-google-home-show-accent-bias
[35]
Tatsunori Hashimoto、Megha Srivastava、Hongseok Namkoong和Percy Liang。2018年,在重复损失最小化中实现无人口统计的公平。在第35届国际机器学习会议论文集(机器学习研究论文集,第80卷)中,Jennifer Dy和Andreas Krause(编辑)。PMLR,1929-1938年。https://proceedings.mlr.press/v80/hashimot18a.html
[36]
Hoda Heidari、Vedant Nanda和Krishna P。古马迪。2019.关于算法决策政策的长期影响:通过社会学习的努力不公平和特征隔离。第36届机器学习国际会议,2019年ICML 2019年6月(2019年),4787–4796。
[37]
科琳娜·赫特维克(Corinna Hertweck)、克里斯托夫·海茨(Christoph Heitz)和米歇尔·洛伊(Michele Loi)。2021.关于统计平价的道德合理性。《2021年ACM公平、问责制和透明度会议记录》(FAccT’21)。美国纽约州纽约市计算机协会,747-757。https://doi.org/10.1145/3442188.3445936
[38]
胡莉莉和陈一玲。2018年。劳动力市场长期公平的短期干预。2018年网络会议——万维网会议记录,WWW 2018 2(2018),1389–1398。https://doi.org/10.1145/3178876.3186044
[39]
Lily Hu、Nicole Immorlica和Jennifer Wortman Vaughan。2019.战略操纵的不同影响。《公平、问责制和透明度会议记录》(FAT*’19)。美国纽约州纽约市计算机协会,259-268。https://doi.org/10.1145/3287560.3287597
[40]
Ling Huang、Anthony D Joseph、Blaine Nelson、Benjamin I P Rubinstein和J D Tygar。2011年,对手机器学习。第四届ACM安全与人工智能研讨会论文集(AISec’11)。美国纽约州纽约市计算机机械协会,43–58。https://doi.org/10.1145/2046684.2046692
[41]
斯特曼·约翰D.2000。商业动力学:复杂世界的系统思考和建模。麦格劳-希尔教育。
[42]
迈克尔·卡恩斯和李明,1993年。在存在恶意错误的情况下学习。SIAM J.计算。22, 4 (1993), 807–837. https://doi.org/10.1137/0222052
[43]
迈克尔·卡恩斯和亚伦·罗斯。2019.道德算法:具有社会意识的算法设计科学。美国牛津大学出版社。
[44]
Jon Kleinberg、Himabindu Lakkaraju、Jure Leskovec、Jens Ludwig和Sendhil Mullainathan。2017年,人类决策和机器预测。技术报告23180。国家经济研究局。https://doi.org/10.3386/w23180
[45]
乔恩·克莱恩伯格(Jon Kleinberg)、延斯·路德维希(Jens Ludwig)、森迪希尔·穆莱纳坦(Sendhil Mullainathan)和阿什什·兰巴坎(Ashesh Rambachan)。2018.算法公平性。AEA论文和会议记录108(2018年5月),22–27。https://doi.org/10.1257/pandp.20181018
[46]
Jon Kleinberg和Manish Raghavan。2020年,分类器如何引导代理商进行战略投资?ACM经济学与计算学报8,4(2020年)。https://doi.org/10.1145/3417742
[47]
Frank L Lewis、Draguna Vrabie和Vassilis L Syrmos。2012.最佳控制。约翰·威利父子公司。
[48]
Chang Liu、Bo Li、Yevgeniy Vorobeychik和Alina Oprea。2017.针对训练数据中毒的稳健线性回归。《第十届ACM人工智能与安全研讨会论文集》(AISec’17)。美国纽约州纽约市计算机协会,91-102。https://doi.org/10.1145/3128572.3140447
[49]
Lydia T Liu、Sarah Dean、Esther Rolf、Max Simchowitz和Moritz Hardt。2018.公平机器学习的延迟影响。在第35届国际机器学习会议论文集(机器学习研究论文集,第80卷)中,Jennifer Dy和Andreas Krause(编辑)。PMLR,3150–3158。https://proceedings.mlr.press/v80/liu18c.html
[50]
利迪亚·T。Liu、Adam Tauman Kalai、Ashia Wilson、Christian Borgs、Nika Haghtalab和Jennifer Chayes。2020年。当个人理性投资时,算法决策的不同均衡。FAT*2020:2020年公平、问责制和透明度会议记录(2020年),381-391。https://doi.org/10.1145/3351095.3372861
[51]
Kristian Lum和William Isaac。2016.预测和服务?重要性13,5(2016),14-19。https://doi.org/10.1111/j.1740-9713.2016.00960.x
[52]
尼娜雷·梅赫拉比(Ninareh Mehrabi)、弗雷德·莫斯塔特(Fred Morstatter)、尼普苏塔·萨克塞纳(Nripsuta Saxena)、克里斯蒂娜·勒曼(Kristina Lerman)和阿兰·加尔斯蒂安(Aram Galstyan)。2021.机器学习中的偏见和公平性调查。ACM计算。Surv公司。54, 6 (7 2021). https://doi.org/10.1145/3457607
[53]
Celestine Mendler-Dünner、Frances Ding和Yixin Wang。2022.通过预测来预测绩效。《神经信息处理系统进展》,S.Koyejo、S.Mohamed、A.Agarwal、D.Belgrave、K.Cho和A.Oh(编辑)。第35卷。Curran Associates公司,31171–31185。https://proceedings.neurips.cc/paper_files/paper/2022/file/ca09b375e8e2b2c789698c079a9fc51c-paper-Conference.pdf
[54]
Smitha Milli、John Miller、Anca D。Dragan和Moritz Hardt。2019.战略分类的社会成本。FAT*2019——2019年公平、问责制和透明度会议记录(2019年),230–239。https://doi.org/10.1145/3287560.3287576
[55]
希拉·米切尔(Shira Mitchell)、埃里克·波塔什(Eric Potash)、索伦·巴罗卡斯(Solon Barocas)、亚历山大·达穆尔(Alexander D'Mour)和克里斯蒂安·卢姆(Kristian Lum)。2021.算法公平性:选择、假设和定义。《统计及其应用年鉴》8,1(3 2021),141-163。https://doi.org/10.1146/annurev-statistics-042720-125902
[56]
侯赛因·穆赞纳尔,梅斯罗布一世。Ohannessian和Nathan Srebro。2019.从公平决策到社会平等。FAT*2019——2019年公平、问责制和透明度会议记录(2019年),359–368。https://doi.org/10.1145/3287560.3287599
[57]
娜塔沙·奥伯马耶、拉维库马尔·穆图斯瓦米、杰米·莱斯诺克、罗伯特·爱德华兹和帕维尔·卡林斯基。1983年,PGE$_2$和COX2之间的正反馈将人类树突状细胞的分化导向稳定的髓源性抑制细胞。免疫生物学119,20(1983)。https://doi.org/10.1182/bloud-2011-07-365825
[58]
亚历山大·奥尔蒂努、卡洛斯·卡斯蒂略、费尔南多·迪亚兹和埃姆雷·科奇。2019.社会数据:偏见、方法陷阱和道德界限。大数据前沿2(2019年7月)。https://doi.org/10.3389/fdata.2019.00013
[59]
凯西·奥尼尔。2017.数学毁灭性武器:大数据如何加剧不平等并威胁民主。皇冠。
[60]
胡安·C。佩多莫、蒂亚娜·兹尼克、塞莱斯汀·门德尔·邓纳和莫里茨·哈德。2020年执行预测。第37届国际机器学习会议,ICML 2020第16814部分(2020),7555–7565。
[61]
Nicola Perra和Luis E C Rocha。2019.模拟算法个性化时代的意见动态。科学报告9,1(2019),1-11。
[62]
Dana Pessach和Erez Shmueli。2022.机器学习公平性综述。ACM计算。Surv公司。55, 3 (2 2022). https://doi.org/10.1145/3494672
[63]
阿尔卡古德·拉马拉帕萨德。1983年,关于反馈的定义。《一般系统研究学会杂志》28,1(1983)。https://doi.org/10.1002/bs.3830280103
[64]
威尔伯特·塞缪尔·罗西(Wilbert Samuel Rossi)、扬·威廉·波尔德曼(Jan Willem Polderman)和保罗·弗雷斯卡(Paolo Frasca)。2021.意见形成和个性化建议之间的闭环。IEEE网络系统控制汇刊(2021),1。https://doi.org/10.109/TCNS.2021.3105616
[65]
汤姆·西蒙尼。2015年,探索谷歌广告定位系统的阴暗面。麻省理工学院技术评论(2015)。
[66]
Ayan Sinha、David F Gleich和Karthik Ramani。2016年,《推荐系统中的去卷积反馈回路》。《神经信息处理系统进展》,D Lee、M Sugiyama、U Luxburg、I Guyon和R Garnett(编辑)。第29卷。Curran Associates公司。https://proceedings.neurips.cc/paper/2016/file/962e56a8a0b0420d87272a682bfd1e53-paper.pdf
[67]
孙毅。2022.序贯决策中的算法公平性。博士。论文。
[68]
Yi Sun、Alfredo Cuesta-Infante和Kalyan Veeramachaneni。2022.公平约束的反击效应。ICML 2022动态环境中负责任决策研讨会(2022年)。https://responsibledecisionmaking.github.io/assets/pdf/papers/44.pdf
[69]
Harini Suresh和John Guttag。2021.了解整个机器学习生命周期中危害源的框架。《算法、机制和优化中的公平与准入》(EAAMO’21)。美国纽约州纽约市计算机协会。https://doi.org/10.1145/3465416.3483305
[70]
斯特拉斯·齐尔茨(Stratis Tsirtsis)、贝扎德·塔比宾(Behzad Tabibian)、莫伊恩·哈杰内贾德(Moein Khajehnejad)、阿迪什·辛格拉(Adish Singla)、伯恩哈德·舍尔科夫(Bernhard Schölkopf)和曼努埃尔·戈梅。2019.战略行为下的最优决策。(2019). http://arxiv.org/abs/1905.09239
[71]
本杰明·范·吉芬(Benjamin van Giffen)、丹尼斯·赫豪森(Dennis Herhausen)和托比亚斯·法什(Tobias Fahse)。2022.克服算法的陷阱和风险:机器学习偏差和缓解方法的分类。《商业研究杂志》144(2022),93–106。https://doi.org/10.1016/j.jbusres.2022.01.076
[72]
叶夫根尼·沃勒德米奇克和穆拉特·坎塔基奥卢。2018.对手机器学习。施普林格国际出版公司,Cham。https://doi.org/10.1007/978-3-031-01580-9
[73]
杰弗里·韦伯(Geoffrey I Webb)、罗伊·海德(Roy Hyde)、洪曹(Hong Cao)、海龙阮(Hai Long Nguyen)和弗朗索瓦·佩蒂让(Francois Petitjean)。2016.描述概念漂移。数据挖掘和知识发现30,4(2016),964–994。https://doi.org/10.1007/s10618-015-0448-4
[74]
韩旭、刘晓瑞、李亚欣、阿尼尔·贾恩和唐继良。2021.健壮还是公平:在对抗训练中走向公平。在第38届国际机器学习会议论文集(机器学习研究论文集,第139卷)中,Marina Meila和Tong Zhang(编辑)。PMLR,11492–11501。https://proceedings.mlr.press/v139/xu21b.html
[75]
Bernard P Zeigler、Tag Gon Kim和Herbert Praehofer。2000.建模与仿真理论。学术出版社。
[76]
张学儒、穆罕默德·马赫迪·哈利利和刘明艳。2020年,公平机器学习的长期影响。《设计中的人机工程学》28,3(2020年),7–11。https://doi.org/10.1177/1064804619884160
[77]
张学儒(Xueru Zhang)、穆罕默德·马赫迪·哈利利(Mohammad Mahdi Khalili)、杰姆·特金(Cem Tekin)和刘明艳(Mingyan Liu)。2019.在顺序决策中使用机器学习时的群体保留:用户动态和公平之间的相互作用。神经信息处理系统进展32,NeurIPS(2019)。
[78]
张学儒和刘明艳。2021.基于学习的顺序决策算法中的公平性:一项调查。系统、决策和控制研究325(2021),525–555。https://doi.org/10.1007/978-3-030-60990-0_18
[79]
张学儒、屠瑞波、杨柳、刘明艳、海德维格·凯尔斯特伦、张坤和张成。2020年。在长期资格认证中,公平决策的表现如何?《2020-Decem神经信息处理系统进展》,NeurIPS(2020),1-13。
[80]
周克敏(Kemin Zhou)和约翰·康斯托克·道尔(John Comstock Doyle)。1998年,稳健控制的要点。第104卷。新泽西州普伦蒂斯·霍尔上鞍河。

引用人

查看全部
  • (2024)用户偏好动态下推荐系统的危害缓解第30届ACM SIGKDD知识发现和数据挖掘会议记录10.1145/3637528.3671925(255-265)在线发布日期:2024年8月25日
  • (2024)从预测的公平分配到社会商品的公平分配:评估公平机器学习对长期失业的影响2024年ACM公平、问责和透明度会议记录10.1145/3630106.3659020(1984-2006)在线发布日期:2024年6月3日
  • (2024)走向算法的系统理论IEEE控制系统信函10.1109/LCSYS.2024.3406943号8(1198-1210)在线发布日期:2024年
  • 显示更多引用者

建议

评论

信息和贡献者

问询处

发布于

封面图片ACM会议
EAAMO’23:第三届ACM算法、机制和优化公平与准入会议论文集
2023年10月
498页
国际标准图书编号:9798400703812
内政部:10.1145/3617694
本作品获得知识共享署名国际4.0许可。

赞助商

出版商

计算机协会

美国纽约州纽约市

出版历史

出版:2023年10月30日

检查更新

作者标记

  1. 自动化决策
  2. 偏差
  3. 动力系统理论
  4. 反馈循环
  5. 机器学习
  6. 表现性预测
  7. 顺序决策

限定符

  • 研究文章
  • 研究
  • 推荐有限公司

资金来源

会议

EAAMO’23
EAAMO’23:算法、机制和优化中的公平性和准入
2023年10月30日至11月1日
马萨诸塞州,美国波士顿

即将召开的会议

EAAMO’24
算法、机制和优化中的公平性和可访问性
2024年10月29日至31日
圣路易斯·波托西,墨西哥

贡献者

其他指标

文献计量学和引文

文献计量学

文章指标

  • 下载次数(过去12个月)896
  • 下载次数(最近6周)189
反映截至2024年9月15日的下载量

其他指标

引文

引用人

查看全部
  • (2024)用户偏好动态下推荐系统的危害缓解第30届ACM SIGKDD知识发现和数据挖掘会议记录10.1145/3637528.3671925(255-265)在线发布日期:2024年8月25日
  • (2024)从预测的公平分配到社会商品的公平分配:评估公平机器学习对长期失业的影响2024年ACM公平、问责制和透明度会议记录10.1145/3630106.3659020(1984-2006)在线发布日期:2024年6月3日
  • (2024)走向算法的系统理论IEEE控制系统信件10.1109/LCSYS.2024.3406943号8(1198-1210)在线发布日期:2024年
  • (2024)社交网络中推荐系统的控制策略IEEE控制系统信件10.1109/LCSYS.2024.34007018(634-639)在线发布日期:2024年
  • (2024)机器人学习中的公平与偏差IEEE会议记录10.1109/JPROC.2024.3403898112:4(305-330)网上发布日期:2024年4月
  • (2024)AI中关于偏见和公平的政策建议和最佳实践道德与信息技术10.1007/s10676-024-09746-w26:2在线发布日期:2024年4月29日
  • (2023)推荐系统对意见动态的影响:微观与宏观效应2023年IEEE第62届决策与控制会议(CDC)10.1109/加拿大49753.2023.10383957(4824-4829)在线发布日期:2023年12月13日

视图选项

查看选项

PDF格式

以PDF文件查看或下载。

PDF格式

电子阅读器

使用联机查看电子阅读器.

电子阅读器

HTML格式格式

在中查看本文HTML格式格式。

HTML格式

获取访问权限

登录选项

完全访问权限

媒体

数字

其他

桌子

分享

分享

共享此出版物链接

在社交媒体上分享