×

认真对待原则:人工智能中价值一致的混合方法。 (英语) Zbl 1512.68261号

概述:人工智能(AI)中价值校准(VA)系统开发的一个重要步骤是了解VA如何反映有效的伦理原则。我们建议VA系统的设计者通过使用一种混合方法来纳入伦理,其中伦理推理和实证观察都发挥作用。我们认为,这避免了犯下“自然主义谬误”,即试图从“是”中导出“应该”,并且在没有犯下谬误的情况下,它提供了一种更充分的道德推理形式。使用量化的模态逻辑,我们精确地制定了从道义伦理中衍生出来的原则,并展示了它们如何对AI规则库中的任何给定行动计划暗示特定的“测试命题”。只有当测试命题在经验上是正确的,即根据经验价值评估做出的判断时,行动计划才是合乎道德的。这允许经验价值评估与独立合理的道德原则无缝结合。

MSC公司:

68时01分 人工智能的一般主题
03B45号 模态逻辑(包括规范逻辑)
68T27型 人工智能中的逻辑
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Abbeel,P.和Ng,A.Y.(2004年)。通过反向强化学习进行学徒制学习。第二十届机器学习国际会议论文集。
[2] Alhama,R.G.和Zuitema,W.(2019年)。基本规则学习的计算模型综述:神经-符号辩论及其他。《心理通报与评论》,26(4)1174-1194。
[3] Allen,C.(2002)。计算道德:限制道德计算。决策和人类行为的认知、情感和道德方面,1,19-23。
[4] Allen,C.、Smit,I.和Wallach,W.(2005)。人工道德:自上而下、自下而上和混合方法。《道德与信息技术》,7(3),149-155。
[5] Allen,C.、Varner,G.和Zinser,J.(2000)。未来任何人为道德代理人的序言。《实验与理论人工智能杂志》,12(3),251-261·Zbl 1008.68092号
[6] Allen,C.、Wallach,W.和Smit,I.(2006)。为什么要机器伦理?。IEEE智能系统,21(4),12-17。
[7] 安德森,S.L.和安德森,M.(2011)。机器伦理的初步义务方法:通过与伦理学家的对话,机器学习道德困境、初步义务和决策原则的特征。安德森,M.和安德森,S.L.(编辑),《机器伦理》。476-492剑桥大学出版社。
[8] Arkoudas,K.,Bringsjord,S.和Bello,P.(2005)。通过机械化道义逻辑实现道德机器人。InAAAI秋季机器伦理研讨会,17-23。
[9] Arnold,T.、Kasenberg,D.和Scheutz,M.(2017年)。价值一致或不一致——什么将使系统负责?。第三届人工智能、道德与社会国际研讨会。
[10] Arnold,T.和Scheutz,M.(2018年)。“大红按钮”为时已晚:人工智能系统道德评估的替代模型。《道德与信息技术》,20(1),59-69。
[11] Bazerman,M.H.(2011)。谈判中的道德约束。谈判与冲突管理研究,4(1),8-11。
[12] Bazerman,M.H.和Gino,F.(2012年)。行为伦理:加深对道德判断和不诚实的理解。《法律和社会科学年度评论》,第8期,第85-104页。
[13] Bazerman,M.H.和Moore,D.(2011年)。现在是独立审计的时候了吗?。《会计、组织与社会》,36(4-5),310-312。
[14] Bazerman,M.H.和Sezer,O.(2016)。有限意识:道德决策的含义。组织行为和人类决策过程,136,95-105。
[15] Bazerman,M.H.和Tenbrunsel,A.E.(2011年)。盲点:为什么我们不能做正确的事,以及该怎么做。普林斯顿大学出版社。
[16] Bentzen,M.M.和Lindner,F.(2018年)。康德对绝对命令的第二种表述的形式化。。国际人工智能与数学研讨会论文集·Zbl 1418.03020号
[17] Berker,S.(2009)。神经科学在规范上的微不足道。哲学与公共事务,37(4),293-329。
[18] Bertrand,M.、Chugh,D.和Mullainathan,S.(2005年)。隐性歧视。《美国经济评论》,95(2),94-98。
[19] Bilgrami,A.(1996)。自知之明和怨恨。哈佛大学出版社。
[20] Brandom,R.(2018)。自动驾驶汽车正走向人工智能的路障。边缘。
[21] Bringsjord,S.(2013)。机器人能做什么和不能做什么,第12卷。施普林格科技与商业媒体·Zbl 0825.68034号
[22] Bringsjord,S.(2017)。21世纪机器人和人的道德等级。《机器人世界》,第47-61页,施普林格出版社。
[23] Bringsjord,S.、Arkoudas,K.和Bello,P.(2006)。走向一种通用的逻辑主义方法论,用于设计符合道德规范的机器人。IEEE智能系统21(4)38-44。
[24] Bringsjord,S.和Taylor,J.(2012)。机器人伦理的神圣命令方法。《机器人伦理:机器人的伦理和社会意义》,麻省理工学院出版社,85-108。
[25] Buckner,C.和Garson,J.(2019年)。连接主义。在Zalta,E.N.(Ed.),斯坦福大学哲学形而上学研究实验室的斯坦福百科全书。
[26] Burton,E.、Goldsmith,J.、Koenig,S.、Kuipers,B.、Mattei,N.和Walsh,T.(2017)。人工智能课程中的道德考虑。AI杂志,38(2)22-34。
[27] Calvo,P.和Symons,J.(2014)。认知结构:重新思考福多和皮利欣的系统性挑战。麻省理工学院出版社。
[28] Chauvet,J.-M.(2018年)。人工智能辩论的30年周期。arXiv预印本arXiv:1810.04053。
[29] Chugh,D.、Bazerman,M.H.和Banaji,M.R.(2005)。有限的道德作为认识利益冲突的心理障碍。Moore,D.A.、Cain,D.M.、Loewenstein,G.和Bazerman,M.H.(编辑),《利益冲突:商业、法律、医学和公共政策的挑战和解决方案》。74-95中所述。剑桥大学出版社。
[30] Conitzer,V.、Sinnott-Armstrong,W.、Borg,J.S.、Deng,Y.和Kramer,M.(2017)。人工智能的道德决策框架。第31届AAAI人工智能会议记录,第4831-4835页。
[31] Cummiskey,D.(1996)。康德的结果论。牛津大学出版社。
[32] Danks,D.(2014)。学习。Keith,F.和Ramsey,W.M.(编辑),《剑桥人工智能手册》,剑桥大学出版社151-167页。
[33] Donaldson,T.(1994)。当整合失败时:商业道德中的处方和描述逻辑。《商业道德季刊》,4(2),157-169。
[34] Donaldson,T.(2012)。公司治理中的认识断层。《管理学会评论》,37(2),256-271。
[35] Egler,M.和Ross,L.D.(2020年)。显微镜下的哲学专门知识。合成,197(3),1077-1098。
[36] Fodor,J.A.和Pylyshyn,Z.W.(1988)。连接主义与认知建筑学:批判性分析。认知,28(1-2),3-71。
[37] Ganascia,J.-G.(2007年)。用答案集编程模拟说谎的道德规则。《道德与信息技术》,9(1),39-47。
[38] Geffner,H.(2018)。无模型、基于模型和通用智能。arXiv预印本arXiv:1806.02308。
[39] Govindarajulu,N.S.和Bringsjord,S.(2017年)。关于自动执行双重效果原则。arXiv预打印arXiv:1703.08922。
[40] Green,A.R.、Carney,D.R.、Pallin,D.J.、Ngo,L.H.、Raymond,K.L.、Iezzoni,L.I.和Banaji,M.R.(2007年)。医生的内隐偏见及其对黑人和白人患者溶栓决策的预测。《普通内科杂志》,22(9),1231-1238。
[41] Greenwald,A.G.、Poehlman,T.A.、Uhlmann,E.L.和Banaji,M.R.(2009年)。理解和使用内隐关联测试:III.预测有效性的Meta分析。。《人格与社会心理学杂志》,97(1),17。
[42] Hare,R.M.(1991)。道德语言。牛津平装本。
[43] Haugeland,J.(1985)。人工智能:正是这个想法。麻省理工学院出版社。
[44] 胡克,J.N.和金,T.W.(2019)。真正自主的机器是合乎道德的。AI杂志,40(4)。
[45] 胡克,J.N.和金,T.W.N.(2018)。面向非教学机器和人工智能伦理:基于模态逻辑的道义方法。2018年AAAI/ACM人工智能、道德和社会会议记录(AIES’18)130-136。
[46] 胡克,J.N.和威廉姆斯,H.P.(2012)。在数学规划模型中结合公平和功利主义。管理科学,58(9),1682-1693。
[47] 胡克,J.(2018)。认真对待道德:为什么道德是现代工作场所的重要工具。泰勒和弗朗西斯。
[48] Kahneman,D.(2011年)。思考,快和慢。麦克米伦。
[49] 康德一世(1785)。Grundlegung zur Metaphyck der Sitten(道德形而上学基础),K¨oniglichen Preußischen Akademie der Wissenschaften第4卷:Kants gesammelte Schriften。乔治·雷默(1900),柏林。
[50] Karsu,¨O.和Morton,A.(2015)。运筹学中的不平等规避优化。《欧洲运筹学杂志》,245343-59·Zbl 1346.90430号
[51] Korsgaard,C.M.(1996)。规范性的来源。剑桥大学出版社。
[52] Lake,B.和Baroni,M.(2018年)。这些年来仍然没有系统化:关于序列到序列递归网络的合成技巧。ArXiv预印本1711.00350。
[53] Lin,P.、Abney,K.和Bekey,G.(2011年)。机器人伦理:为机械化世界描绘问题。人工智能,175(5-6),942。
[54] Lindner,F.、Mattm¨uller,R.和Nebel,B.(2020年)。评估行动计划的道德许可性。人工智能,287·Zbl 1493.68287号
[55] Malle,B.F.、Scheutz,M.、Arnold,T.、Voiklis,J.和Cusimano,C.(2015)。为了许多人的利益牺牲一个人们对人类和机器人代理人适用不同的道德规范。第十届ACM/IEEE人机交互国际年会论文集,117-124。
[56] Marcus,G.(2001年)。代数思维。麻省理工学院出版社。
[57] Marcus,G.(2018)。《深度学习:批判性评价》,Xiv预印本1801.00631。
[58] McDowell,J.(1995)。两种自然主义。在R.,H.,G.,L.,&W.,Q.(编辑)《美德与理由:菲利普·富特与道德理论》中;纪念菲利普·富特的论文。克拉伦登出版社。
[59] Moore,D.A.、Tanlu,L.和Bazerman,M.H.(2010年)。利益冲突和偏见的侵入。判断和决策,5(1),37。
[60] Moore,D.A.、Tetlock,P.E.、Tanlu,L.和Bazerman,M.H.(2006)。利益冲突与审计师独立性:道德诱惑与战略问题循环。《管理学会评论》,31(1),10-29。
[61] Nagel,T.(1979)。没有生物学的伦理学。在Nagel,T.(编辑)中,《致命问题142-46》。剑桥大学出版社。
[62] Nagel,T.(1986)。无处不在的景色。牛津大学出版社,牛津。
[63] Nelkin,D.K.(2000年)。两个观点和对自由的信仰。《哲学杂志》,97,564-576。
[64] Ng,A.Y.和Russell,S.J.(2000年)。反向强化学习算法。第17届机器学习国际会议论文集,663-670。摩根·考夫曼。
[65] O'Neill,O.(2014)。原则行动:关于康德伦理学的论文(第二版),英国剑桥大学出版社。
[66] Parfit,D.(2011年)。关于什么是重要的,第一卷。牛津大学出版社。
[67] Pigden,C.(2016)。休谟:逻辑、承诺和威灵顿公爵。休谟牛津手册401-415。牛津大学出版社。
[68] Prince,A.和Pinker,S.(1988年)。人类语言中的规则和联系。《神经科学趋势》,11(5),195-202年。
[69] Rachels,J.(1990)。由动物创造。牛津大学出版社。
[70] 罗尔斯,J.(1971)。正义理论。哈佛大学出版社。
[71] Rescorla,M.(2020年)。心智的计算理论。在扎尔塔,E.N.(编辑),斯坦福大学哲学百科全书。斯坦福大学形而上学研究实验室。
[72] Rossi,F.和Loreggia,A.(2019年)。偏好和道德优先事项:人工智能中的快速和慢速思考。第18届自动代理和多代理系统国际会议论文集,3-4页。
[73] Rudman,L.A.和Ashmore,R.D.(2007年)。歧视和内隐联想测验。集团流程与集团间关系,10(3),359-372。
[74] Russell,S.、Dewey,D.和Tegmark,M.(2015)。强健有益的人工智能的研究重点。AI杂志,36(4),105-114。
[75] Scheutz,M.(2002年)。计算主义——下一代。《计算主义:新方向》,1-21,麻省理工学院出版社。
[76] Scheutz,M.和Arnold,T.(2016)。我们准备好性爱机器人了吗?。第11届ACM/IEEE人机交互国际会议(HRI),351-358。
[77] Schwitzgebel,E.和Cushman,F.(2012)。道德推理方面的专业知识?秩序对专业哲学家和非哲学家道德判断的影响。思维与语言,27(2),135-153。
[78] Schwitzgebel,E.和Cushman,F.(2015)。尽管经过培训、专业知识和反思,哲学家的偏见判断依然存在。认知,141127-137。
[79] Sezer,O.、Gino,F.和Bazerman,M.H.(2015)。道德盲点:解释无意的不道德行为。心理学当前观点,6,77-81。
[80] Singer,D.J.(2015)。当心被测间隙。《哲学杂志》,112(4),193-210。889
[81] Smith,J.和Dubbink,W.(2011年)。理解道德原则在商业伦理中的作用:康德的观点。《商业道德季刊》,21(2),205-231。
[82] Smolensky,P.(1988)。关于正确对待联结主义。行为与脑科学,11(1),1-23。
[83] Soares,E.A.、Angelov,P.P.和Costa,B.(2020年)。通过基于规则的近似和可视化解释深度学习模型。IEEE模糊系统汇刊。
[84] Tenbrunsel,A.E.(2005)。评论:有限的道德和利益冲突。Moore,D.A.、Cain,D.M.、Loewenstein,G.和Bazerman,M.H.(编辑),《利益冲突:商业、法律、医学和公共政策中的挑战和解决方案》,第96页。剑桥大学出版社。
[85] Tobia,K.、Buckwalter,W.和Stich,S.(2013)。道德直觉:哲学家是专家吗?。哲学心理学,26(5),629-638。
[86] Wallach,W.、Allen,C.和Smit,I.(2008)。机器道德:模拟人类道德能力的自下而上和自上而下的方法。AI与社会,565-582。
[87] Wallach,W.和Allen,C.(2008)。道德机器:教机器人明辨是非。牛津大学出版社。
[88] Walsh,T.、Levy,N.、Bell,G.、Elliott,A.、Maclaurin,J.、Mareels,I.和Wood,F.(2019年)。人工智能的有效和道德发展:改善我们福祉的机会。澳大利亚学术委员会。
[89] Wiegmann,A.、Horvath,J.和Meyer,K.(2020年)。直观的专业知识和无关的选项。牛津实验哲学研究,3(3),275。
[90] Wolf,M.J.、Miller,K.W.和Grodzinsky,F.S.(2017年)。为什么我们应该看到这一点:对微软Tay“实验”的评论,以及更广泛的含义。轨道日志,1(2),1-12。
[91] Wood,A.W.(1999)。康德的伦理思想。剑桥大学出版社。
[92] Woods,J.和Maguire,B.(2017年)。模型理论、休谟名言和伦理理论的优先性。Ergo,14(4)。
[93] Wo´zniak,M.和Po lap,D.(2020年)。智能家居系统通过使用神经网络和基于规则的方法为无处不在的用户提供支持。IEEE工业信息学汇刊,16(4),2651-2658。
[94] Zhang,T.、Fletcher,P.O.、Gino,F.和Bazerman,M.H.(2015)。减少有限道德:如何帮助个人注意和避免不道德行为。组织动力学,44(4),310-317
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。