页面顶部

偏差,
公平,
人工智能中的可解释性

人工智能偏见、公平性研究

埃森哲:建立数字信任:数据伦理在数字时代的作用, (2016)

埃森哲:知情同意书和动态数据, (2016)

阿达迪、阿米娜和穆罕默德·贝拉达。“窥探黑盒子:可解释人工智能(XAI)调查”。“IEEE Access 6(2018):52138-52160。

Ada Lovelace Institute and DataKind英国:检查黑盒:评估算法系统的工具, 2020

2019年AI治理回顾之年:50位全球专家的意见

​​AI Now研究所:AI Now 2017报告

AI Now研究所:AI Now 2018报告

AI Now研究所:AI Now 2019报告

AI Now研究所:残疾、偏见和AI

AI善:AI for Good全球峰会总结, (2017)

AI促进和平:AI解释:决策者非技术指南, (2020)

亚历杭德罗·巴雷多·阿列塔,纳塔莉亚·迪亚斯·罗德里格斯,哈维尔·德尔塞尔,阿德里安·本内特,西汉·塔比克,阿尔贝托·巴巴多,萨尔瓦多·加西亚,塞尔吉奥·吉尔·洛佩斯,丹尼尔·莫利纳,理查德·本雅明,拉贾·查蒂拉,弗朗西斯科·埃雷拉(Francisco Herrera):可解释人工智能(XAI):概念、分类、机遇和挑战, 2019

算法观察,2020年自动化社会报告

Anderson,C.W.(2012)。走向计算与算法新闻社会学。”新媒体与社会。

Angwin,J.(2014)。《黑客》,摘自:J.Angwin,Dragnet民族:在无情监视的世界中寻求隐私、安全和自由第1-20页。纽约:Henry Holt&Co

安娜·劳伦·霍夫曼(2019)公平失败的地方:数据、算法和反歧视话语的局限《信息、通信与社会》,22:7,900-915

梭伦·巴罗卡斯。数据挖掘与歧视话语

巴罗卡斯、梭伦、哈德、莫里茨和纳拉亚南、阿尔文德(2020)公平与机器学习:局限与机遇

Barocas,S.、Guo,A.、Kamar,E.、Krones,J.、Morris,M.、Vaughan,J.W.、Wadsworth,D.和Wallach,H.(2021)。设计人工智能系统的分解评估:选择、考虑和权衡

雅瓦尔·巴萨埃(Bathaee,Yavar):人工智能黑箱与意图和因果的失败《哈佛法律与技术杂志》第31卷第2期(2018年春季)

凯西·巴克斯特(Kathy Baxter):是Salesforce的道德人工智能实践架构师。她有一个令人难以置信的不断更新Salesforce Einstein.AI博客中AI研究论文和文章中的道德列表.

B.C.Stahl、D.Wright、,人工智能和大数据中的道德和隐私:实施负责任的研究和创新IEEE安全与隐私16(3)(2018)

可解释人工智能
初创公司

Birhane,A.、Prabhu,V.U.和Kahembwe,E。多模式数据集:厌恶女性、色情和恶性刻板印象, (2021)

boyd,d.和K.Crawford。“大数据的关键问题。” 信息、通信与社会15,第5期:662-679。

博兹达格,E。算法过滤和个性化中的偏差.伦理信息技术15,(2013)

Brent Mittelstadt、Chris Russell和Sandra Wachter。2019解释人工智能中的解释《公平、问责制和透明度会议记录》(FAT*’19)。美国纽约州纽约市计算机协会

布鲁诺·莱普里、雅各布·斯塔亚诺、大卫·桑戈科亚、埃马纽埃尔·莱图泽、努里亚·奥利弗。数据暴政?数据驱动的社会公益决策的光明面和黑暗面

Brown、Shea、Ryan Carrier、Merve Hickok和Adam L.Smith。2021“数据集中的偏差缓解”

J.伯雷尔:机器如何“思考”:理解机器学习算法中的不透明性.大数据与社会(2016)

凯捷:为什么在AI中解决道德问题会使组织受益

凯捷:AI与道德难题

​​

Calders,Toon&Zliobaite,Indre公司。(2013).为什么无偏计算过程会导致歧视性决策程序. 10.1007/978-3-642-30487-3_3.

Caliskan,A.、Bryson,J.J.和Narayanan,A.(2017年)。从语料库自动派生的语义包含类似人类的偏见。科学,356

莱恩·卡罗:人工智能政策:入门和路线图,(2017)

安娜玛丽亚·卡鲁西(Annamaria Carusi)(2008年)。超越匿名:数据在电子研究伦理中的表现《国际互联网研究伦理杂志》。1. 37-65.

批判性种族与数字研究中心(CR+DS):出版物和公共工程

数据伦理与创新中心(英国政府):景观概述:算法决策中的偏差, 2020

数据伦理中心和创新(英国政府):AI气压计, 2020

数据伦理与创新中心(英国政府):偏差识别和缓解决策算法

Chakraborti、Tathagata和Sreedharan、Sarath和Kambhampati、Subbarao。可解释人工智能规划和决策的新兴景观, (2020)

希格纳德、西蒙和佩尼卡德、索齐奇:“权力越大,责任越大”:让公共部门算法负责

这个监测的色彩:对穷人和劳动者的监测

欧洲委员会:歧视、人工智能和算法决策, (2018)

克劳福德、凯特和舒尔茨、杰森。Big数据和正当程序:建立一个框架以纠正预测性隐私损害,55B年。C.L.第93版(2014年)

K.克劳福德。,“大数据中隐藏的偏见”

克里斯托夫·莫尔纳。可解释机器学习:黑盒模型解释指南。

卡斯特斯、巴特和拉福尔斯、卡罗琳娜和乔兹维克、玛格达莱娜和埃丝特、基莫伦和巴克什内尔、丹尼尔和弗里德沃尔德、迈克尔和阿古齐、斯特凡妮亚、,大数据技术的道德、法律、社会和经济问题清单(2017年8月31日)

卡斯特斯、巴特、,数据挖掘和群体特征分析在流行病学中的知识、道德、法律和技术方面的力量(2004年10月22日)。Custers B.H.M.(2004)

巴特·卡斯特斯;考尔德、香椿;Schermer,Bart和Zarsky,Tal(编辑)信息社会中的歧视和隐私——大型数据库中的数据挖掘和分析.斯普林格。国际标准图书编号978-3-642-30486-6

Danilevsky,Marina等人。“可解释人工智能在自然语言处理中的现状调查。”(2020)

国防高级研究计划局:可解释人工智能(XAI), (2016) 

大卫·丹克斯和亚历克斯·约翰·伦敦。2017自治系统中的算法偏差.第26届国际人工智能联合会议(IJCAI’17)会议记录。AAAI出版社

de Fine Licht,K。人工智能、透明度和公共决策AI&Soc(2020)。

德勤:值得信赖的人工智能,弥合围绕人工智能的道德鸿沟

D.莱斯利,理解人工智能伦理和安全(2019年)

D.莱斯利,理解面部识别技术中的偏见:一个解释者艾伦·图灵研究所(2021)

​​德沃克,辛西娅;哈德,莫里茨;皮塔西,托尼安;莱因戈尔德,奥马尔;泽梅尔,富有:通过意识实现公平,(2011)

爱德华兹、莉莲和维亚尔、迈克尔、,奴役算法:从“解释权”到“更好决策权”?(2018). IEEE安全与隐私(2018)16(3)

艾米丽·本德(Emily M.Bender)、蒂姆尼特·盖布(Timnit Gebru)、安吉丽娜·麦克米兰(Angelina McMillan-Major)和什玛格丽特·施米切尔(Shmargaret Shmitchell)。2021随机鹦鹉的危险:语言模型会太大吗?.公平、问责和跨国界会议(FAccT’21)ACM

苏珊·埃特林格(高度表):负责任人工智能的基础

欧洲委员会:值得信赖的人工智能的政策和投资建议,(2019年)

欧洲委员会:JRC关于健壮性和可解释性的报告是值得信赖的人工智能的关键支柱, (2020)

 

欧洲科学与新技术伦理小组:人工智能、机器人和“自主”系统声明,(2018年)

欧洲议会:人工智能伦理:问题与倡议,(2020)

欧洲议会:医疗保健中的人工智能:应用、风险以及道德和社会影响(2022)

欧盟:我有多正常?

 

假冒AI

弗里德曼、巴蒂亚和尼森鲍姆、海伦。计算机系统中的偏差

 

隐私论坛的未来:算法的不公平性:提取自动决策的危害, (2017)

F.Rossi,企业人工智能的人工智能伦理(2019年)

Grgic-Laca,Nina等人。“学习过程公平案例:公平决策的特征选择”(2016).

哈格蒂,Alexa;鲁比诺夫,伊戈尔:全球人工智能伦理:人工智能的社会影响和伦理意义综述, (2019)

Hannak,A.,Sapiezynski,P.,Kakhki,A.M.,Krishnamurthy,B.,Lazer,D.,Mislove,A.,Wilson,C.(2013)。衡量Web搜索的个性化(WWW’13)。

Harini Suresh,John V.Guttag。理解机器学习意外后果的框架

格里·哈塞尔巴赫。“理解数据伦理。欧洲政策制定中数据伦理辩论背后的力量”。互联网政策审查8.2(2019)

Hayes,P.、van de Poel,I.和Steen,M。司法和安全中的算法和价值AI和Soc(2020年)

Hecht,B.,Wilcox,L.,Bigham,J.P.,Schöning,J.,Hoque,E.,Ernst,J.、Bisk,Y.、De Russis,L.、Yarosh,L.和Anjum,B.,Contractor,D.和Wu,C.2018。是时候采取行动了:通过改变同行评审流程来减轻计算的负面影响.ACM计算博客的未来

米雷尔·希尔德布兰特。定义评测:一种新型知识?. 10.1007/978-1-4020-6914-7_2. (2008).

上议院人工智能特别委员会:英国人工智能:准备好了、愿意了、有能力了吗?, (2017)

信息风险研究计划(IRRI):信息风险地图图集

Introna,L.和H.Nissenbaum。(2000).“塑造网络:为什么搜索引擎的政治至关重要。”信息社会16,第3期:1-17。

以色列,Brett W&Ahmed,Nisar R。“戴夫……我可以向你保证……一切都会好起来的……”——人类自主信任关系中算法保证的定义、案例和调查, (2017)



雅各布·梅特卡夫、伊曼纽尔·莫斯和达纳博伊德,“拥有道德:企业逻辑、硅谷和道德制度化”数据与社会,(2019)

J.Fjeld、H.Hilligoss、N.Achten、M.L.Daniel、J.Feldman、S.Kagay、,原则性人工智能:基于伦理和权利的方法地图(2019年)

J.Kulshrestha、M.Eslami、J.Messias、M.B.Zafar、S.Ghosh、K.Gummadi和K.Karahalios。量化搜索偏差:调查社交媒体中政治搜索偏差的来源(CSCW 2017)

乔纳森·道奇,Q.廖维拉,张云峰,瑞秋·K·E·贝拉米,凯西·杜根: 解释模型:解释如何影响公平判断的实证研究, 2019

J.Zhu、A.Liapis、S.Risi、R.Bidarra、G.M.Youngblood、,设计师的可解释人工智能:以人为中心的混合创新视角2018年IEEE计算智能与游戏会议(CIG)(2018)

Patrick Hall和Navdeep Gill。机器学习可解释性导论:公平性、问责制、透明度和可解释人工智能的应用视角第2版,O'Reilly Media,Inc,(2019)

Hanna,A.、Denton,E.L.、Smart,A.和Smith-Loud,J.(2020年)。T型owards算法公平中的一种关键竞赛方法2020年公平、问责制和透明度会议记录。

肯西,FairML健康工具

Kleinberg、Jon和Ludwig、Jens和Mullainathan、Sendhil和Sunstein、Cass R.:算法时代的歧视,(2019年)

 

​​克里格,汤姆亚什;巴伊克,Štěpán;弗伦克兰兹,约翰内斯:认知偏差对基于规则的机器学习模型解释的可能影响综述,(2019年)

毕马威会计师事务所:控制人工智能:透明度和可解释性的必要性,(2019年)

乔舒亚·亚历山大·克罗尔(Joshua Alexander Kroll):责任算法,(2015)

Landers,R.N.和Behrend,T.S。审计人工智能审计师:评估高风险人工智能预测模型中公平性和偏见的框架美国心理学家。(2022)

Le Chen、Alan Mislove和Christo Wilson。亚马逊市场算法定价的实证分析(WWW’16)

Lee、Michelle Seng Ah和Luciano Floridi。“抵押贷款的算法公平性:从绝对条件到关系权衡。”SSRN(2020年)

Madden、Mary和Gilman、Michele E.和Levy、Karen和Marwick、Alice E.、。,隐私、贫困和大数据:美国贫困人口的脆弱性矩阵(2017年3月9日)。95《华盛顿大学法律评论》53(2017)

麦肯锡公司:控制机器学习算法及其偏差, (2017)

麦肯锡全球研究所:人工智能前沿笔记:解决人工智能(和人类)中的偏见, (2019)

梅根·兰德尔(Megan Randall)、阿莱娜·斯特恩(Alena Stern)、苏一鹏(Yipeng Su): 填写缺失种族和族裔数据研讨会关于数据插补伦理和相关方法的调查结果之前需要考虑的五个道德风险 (2021)

​​

Mitchell,S.、Eric Potash、Solon Barocas、Alexander D'Mour和K.Lum。《基于预测的决策与公平:选择、假设和定义目录》arXiv:应用(2018)

Mittelstadt,Brent Daniel:Allo,Patrick;马里亚罗萨利亚·塔迪奥,桑德拉·瓦希特;卢西亚诺·弗洛里迪:算法伦理:映射争论, (2016)

Mohamed,S.,Png,MT.和Isaac,W。非殖民化人工智能:作为人工智能社会技术预见的非殖民化理论。菲洛斯。技术。33, (2020)

克里斯托夫·莫尔纳。可解释机器学习,黑盒模型可解释指南, (2020)

穆勒,文森特·C:人工智能和机器人伦理学爱德华·扎尔塔(Edward N.Zalta)(编辑),斯坦福大学哲学百科全书(2020)

NIST(国家标准与技术研究所):可解释人工智能的四个原则

NIST(国家标准与技术研究所):建立一个识别和管理人工智能偏差的标准

NIST(国家标准与技术研究所):构建NIST人工智能风险管理框架:研讨会#2记录

Obermeyer、Ziad、Powers、Brian、Vogeli、Christine、Mullainathan、Sendhil:分析用于管理人群健康的算法中的种族偏见(2019年)

奥尔蒂努·亚历山德拉、卡斯蒂洛·卡洛斯、迪亚斯·费尔南多、科奇曼·埃姆雷、,社会数据:偏见、方法陷阱和道德界限,大数据的前沿(2019年)

Osoba、Osonde A.、Benjamin Boudreaux、Jessica Saunders、J.Luke Irwin、Pam A.Mueller和Samantha Cherney,算法公平:一个社会应用框架加利福尼亚州圣莫尼卡:兰德公司(2019)

Osoba、Osonde A.和William Welser IV,我们想象中的智能:人工智能中的偏见和错误风险加利福尼亚州圣莫尼卡:兰德公司(2017)

牛津洞察,自然语言处理中的种族偏见(2019年)

Parasuraman,R.和Riley,V.(1997年)。人类与自动化:使用、误用、滥用、虐待人为因素,39(2)

Pasquale,F.(2011年)。“恢复自动授权的透明度。”《电信与高技术法律杂志》第9期,第235:235-254页。

帕布、维奈和比哈内、阿贝巴。(2020).大型图像数据集:计算机视觉的巨大胜利?

普华永道:道德人工智能:紧张与权衡, (2019)

Rahwan,I.、Cebrian,M.、Obradovich,N.等人:机器行为,《自然》568(2019)

 

兰德:T型人工智能中的偏见和错误风险, (2017)

R.Guidotti、A.Monreale、S.Ruggieri、F.Turini、F.Giannotti、D.Pedreschi、,黑箱模型解释方法综述ACM计算调查51(5)(2018年)

罗布·基钦,批判性思考和研究算法《信息、通信与社会》,20:1,(2017)

C.鲁丁。停止解释高风险决策的黑箱机器学习模型,转而使用可解释模型.Nat马赫整数1,(2019)

鲁哈·本杰明。评估风险,自动化种族主义,《科学》2019年10月25日:第366卷,第6464期

鲁哈·本杰明,赛后技术讨论指南

斯图亚特·罗素(Stuart Russell):显而易见有益的人工智能

R.Zemel、Y.Wu、K.Swersky、T.Pitassi、C.Dwork、,学习公平陈述,in:2013年国际机器学习会议

萨姆·科贝特·戴维斯,莎拉·戈尔。公平的度量与误判:公平机器学习的批判性评述

萨姆·科贝特·戴维斯(Sam Corbett-Davies)、艾玛·皮尔森(Emma Pierson)、阿维·费勒(Avi Feller)、莎拉·戈尔(Sharad Goel)、阿齐兹·胡克(Aziz Huq)。算法决策与公平成本

Saurwein,Florian等人。“算法治理:选项和限制。”(2015)

保罗·施瓦茨(Paul Schwartz):数据处理和政府管理:美国对计算机的法律回应失败《黑斯廷斯法律杂志》,第43卷,(1991年)

Selbst、Andrew D.和Boyd、Danah和Friedler、Sorelle和Venkatasubramanian、Suresh和Vertesi、Janet、,社会技术系统中的公平与抽象(2018年8月23日)。2019年ACM公平、问责制和透明度会议(FAT*)

⑩erife Wong和斯坦福大学行为科学高级研究中心(CASBS)。“Fluxus景观:人工智能伦理和治理的扩展视图”库姆,(2019)

尼古拉·斯费特库。“研究中的大数据伦理”,(2019年)

Shubham Sharma、Jette Henderson和Joydep Ghosh。2020年CERTIFI:一个通用框架,用于解释和分析黑盒模型的公平性和稳健性《AAAI/ACM人工智能、道德和社会会议记录》(AIES’20)。美国纽约州纽约市计算机协会

嗯,哈里:消除AI偏见, (2020)

新加坡计算机学会,AI道德与治理知识体系(BoK), 2020

索雷尔·弗里德勒(Sorelle A.Friedler)、卡洛斯·谢德格尔(Carlos Scheidger)、苏雷什·文卡塔苏布拉曼尼亚(Suresh Venkatasubramanian)、索纳姆·乔德利(Sonam Choudhary)、埃文·汉密尔顿(Evan P.Hamilton)和。机器学习中公平性增强干预的比较研究. 2018

斯坦福大学,人工智能的视觉和语言偏见

S.T.Shane T.Mueller、R.R.Hoffman、W.Clancey、G.Klein、,人类-人工智能系统中的解释:关键思想、出版物和可解释人工智能参考书目的文献元审查概要,国防部高级研究计划局(DARPA)XAI项目技术代表(2019年)

Suresh,H.和J.Guttag。“理解机器学习意外后果的框架。”(2019)

斯威尼,L。在线广告交付中的歧视。CACM 56(5):44-54。

谢里·特雷文:AI对残疾人的公平:观点, (2018)

泽内普·图菲科奇。(2014).“公众工程:大数据、监控和计算政治”第一个星期一19号,第7号。

英国政府: 中期报告:算法决策偏差回顾,(2019年)

Umang Bhatt、Alice Xiang、Shubham Sharma、Adrian Weller、Ankur Taly、Yunhan Jia、Joydep Ghosh、Ruchir Puri、JoséM.F.Moura、Peter Eckersley:部署中的可解释机器学习,(ACM FAT*2020)

联合国教科文组织:人工智能与两性平等:联合国教科文组织全球对话的主要结论, 2020

上升趋势:民权、大数据和我们的算法未来

上升趋势:数据伦理,明智地大规模投资数据

Upturn and Omidyar Network报告:自动决策的公共审查:早期经验教训和新兴方法

维玛,萨希尔;鲁宾,朱莉娅:公平性定义解释,发布于2018 IEEE/ACM软件公平国际研讨会(FairWare)

Wachter、Sandra、Brent Mittelstadt和Chris Russell。“未打开黑匣子的反事实解释:自动决策和GDPR。”《哈佛法律与技术杂志》31.2(2018)。

Wachter、Sandra和Mittelstadt、Brent和Russell、Chris、,为什么公平不能自动化:弥合欧盟非歧视法和AI之间的差距(2020年3月3日)

沃森、戴维和卢西亚诺·弗洛里迪。“解释游戏:可解释机器学习的正式框架。”(2020)

Williams,B.、Brooks,C.和Shmargad,Y.:算法如何根据缺少的数据进行识别:挑战、解决方案和政策含义,信息政策杂志,8,(2018)

Tal Z.Zarsky,2012年。”“政府数据挖掘及其替代方案。”宾夕法尼亚州法律评论116(2)

塔尔·扎斯基,2013年b。“挖掘网络自我”《耶路撒冷法律研究评论》6(1):120-136。

Tal Z.Zarsky,2014年。“理解得分社会中的歧视”《华盛顿法律评论》89(4):1375

泽文伯根、本德特和米特尔斯塔特、布伦特和维利兹、卡里萨和德特维勒、克里斯蒂安和凯斯、科琳娜和萨武列斯库、朱利安和惠塔克、梅雷迪斯:哲学与互联网工程:网络系统研究中的伦理(GTC研讨会成果文件)(2015年)

页面底部