1介绍

在过去几年里,人工智能能力的进步以及大数据使人们关注到人工智能的机遇和风险。这些发展作为回应,在民间社会组织、研究中心、,私人公司和政府机构公开了他们的承诺,并将自己定位于他们认为最重要的价值观,以嵌入AI产品的开发和实施。

原则和指南有意作为高层次、抽象的文件提供,因为它们的应用对情况、时间和上下文敏感。它们需要适用于多个领域。人工智能中这些备受瞩目的价值陈述有助于形成道德背景,因为它们明确了价值观、道德和技术之间的联系[1]. 原则还被视为政策制定者和专业人员应如何优先考虑和构建未来立法、标准、治理模式和投资的指南。软治理和硬治理模式,包括前者的原则和后者的监管,塑造了私人公司、政府和个人之间的权力关系,无论个人是消费者还是公民。这使得关于原则的辩论至关重要。然而,它们的抽象性质也使得这些原则在实际目的和对其含义的共同理解方面用处不大。

算法或自动决策系统已经应用于我们私人和公共生活的各个方面,从信用评分到招聘、大学招生到预测性警务、福利福利资格确定到刑事司法决策、在线内容个性化到军事应用或边境控制。算法越来越多地被营销和采用,以提高效率、降低成本,并增强产品和服务的个性化。然而,尽管算法的这种无处不在的状态以及这些决策对个人和社会的高风险和高影响,关于什么是重要的、什么应该优先、如何部署这些系统以及在哪里部署这些系统的决策仍然由少数利益相关者作出。这些决策反映并塑造了决策者之间、决策者与受影响者之间的权力关系。即使AI伦理领域的目标是揭示与AI相关的伦理问题并提出解决方案,也不能不受政治和权力力量的影响。对大多数原则和指导方针的主要批评是:(1)它们太抽象,不实用;(2)它们主要反映了被选择创建它们的专家的价值观;(3)它们服务于资助部分工作的私营实体的优先事项。

技术提案(如工具和检查表)紧随原则浪潮而来,主要批评是:(1)它们试图为结构性问题带来技术修复;(2) 他们没有思考这些问题的基本社会、种族、经济背景;(3) 他们没有关注AI影响的责任和责任;(4)他们转移了人们对商业文化和剥削等关键问题的注意力。正如鲁哈·本杰明(Ruha Benjamin)警告的那样,“通往不公平的道路是由技术修复铺就的”[2].”

这项工作认为,参与本次辩论的行动者应重点关注两个优先事项。首先,要突出人工智能伦理原则的缺陷,并将其明确化。第二,确保未来的工作以吸取的经验教训为基础,并具有真正的包容性和全球发言权。迫切需要采取切实行动,确保人工智能在道德上和负责任地发展和实施,并确保相关治理方法到位。对当前状态的更深入理解得出结论,有必要采取更多样、更具包容性的方法来应对人工智能提出的问题。关注所吸取的经验教训并不会阻碍将原则付诸实践的进展,事实上,这为未来的发展开辟了可能性。它提出了不同的AI案例、后果并允许更好的响应。社区塑造了他们使用AI和拥有先进技术的方式。然而,这需要包容,需要建立机制,在必要时对技术干预进行抗辩、纠正和扭转。迄今为止,人工智能伦理原则未能与那些将成为这些系统目标的人进行有意义的接触,切断了这些群体的所有权、包容性和正义[]作为过程的一部分。

本文提出了以下问题:(1)就代表性而言,原则和准则的当前状态如何?(2) 需要改变什么?如何改变?它进一步呼吁采取紧急行动,从原则转向实践,重点关注人工智能部署的背景及其影响。它还要求该领域的进一步多样性和包容性。

2道德/负责任人工智能原则的现状

一些在线平台[4,5,6]对世界各地出版的所有人工智能伦理原则和指南进行最新盘点,一些研究论文已经完成了对这些文件的元分析。

对这些平台的回顾和已发表的分析研究告诉我们,就内容而言,这些文件侧重于类似的价值观和优先级,但定义不同。在2019年对人工智能道德准则的“全球”景观进行的元分析中,Jobin等人[7]审查公开发布的84项AI道德准则。研究结果表明,尽管这些文件中没有任何一个共同的原则,但其中一半以上的文件包括透明度、公正性、无害性、责任和隐私等主题。不同准则中重复的其他主题包括尊重人的自主性和尊严、可解释性、仁慈和信任。Fjeld等人[8]2020年对不同文件样本的研究表明,虽然存在一定的趋同点,但所审查的36份主要文件之间决不存在一致性。本次审查的所有文件都提出了公平和非歧视原则,其他关键主题是隐私、问责制、安全保障、透明度和可解释性、人类对技术的控制、职业责任和促进人类价值。类似原则的趋同,但每个参与者如何定义这些相同原则的差异,在讨论中造成了不一致和混乱。相似的术语意味着不同的东西,因此可以有各种各样的解释。这使得更难让行动者对其承诺负责。它还允许“数字道德购物”的可能性,即私人和公共行为者混合和匹配道德原则、指导方针、规范和框架,以证明他们当前的行为是合理的,而不是通过将其与公共道德标准进行比较来修正他们的行为[9].

就地理分布而言,Jobin等人[10]数据显示,美国(25%)和英国(15.5%)、欧盟成员国、加拿大、冰岛和挪威及其机构(26%)的代表性显著。这些共同构成了所有人工智能伦理原则的67%,并显示出美国西部价值观的重大影响。日本占4.8%,阿联酋、印度、新加坡、韩国和澳大利亚各有一份妥协文件,总计占6%。然而,非洲、南美洲、中美洲和中亚国家(印度除外)没有独立于国际或超国家组织(如世界经济论坛、G20、经合组织或教科文组织)的代表。中国于2019年发布了原则。尽管人们可以认为这些分析中包含的原则可能存在语言偏见(例如,在Jobin等人的分析中,只选择了用英语、德语、法语、意大利语或希腊语编写的原则;而在Fjeld等人的分析里,则选择了用英文、中文、法语、德语和西班牙语编写的原则),那么人们也需要接受这样一个障碍,即该领域需要纠正和集中精力,以确保能够获得其他语言区域的工作。获取研究的语言障碍并不是新的障碍。然而,考虑到人工智能对生活的所有领域的影响及其跨越国界的影响,语言仍然是不可接受的障碍。它可以通过全球伙伴关系、虚拟连接和增加资金来克服。在这些地区没有代表的情况下,“经济较发达的国家比其他国家更能影响这场辩论,这引发了人们对忽视当地知识、文化多元化和全球公平要求的担忧”[10]. 如果原则、指导方针或实践不包括任何伦理观点、社区参与或非洲、拉丁美洲或中亚的社会历史背景,那么该领域需要质疑这些原则、指导原则或实践如何“全球化”。Mohamed等人从算法群体性的角度看待数据和人工智能实践的发展,并警告不要重复历史。提醒实践者批判性地参与这种继承,避免算法殖民主义,并揭示技术部署背后的权力关系[11].

资助创建AI的实体对AI原则文件的细分显示,23%由私营公司制作,21%由政府机构、学术和研究机构制作,然后由政府间或超国家组织制作,分别占11%和10%,非营利组织和专业协会/科学协会各占8.3%。私营公司的代表性略有相似,但就不同平台的趋势而言也是如此。AI伦理实验室显示,在平台中列出的103份文档中,来自私营公司的AI原则占34%[12]; Fjeld等人[13]研究表明,在审查的36份文件中,私人资金占22%;和AlgoritmWatch的AI道德准则全球清单[14]显示,在他们选择的160家上市公司中,私营公司占26%。这些不同的审查表明,私营公司的原则几乎与政府机构的原则一样多。人工智能方法的使用指南不是在真空中制定的,而是由开发和使用这些方法的公司和组织的决策过程、意图和局限性决定的[14]. 私营公司的这些努力被批评为他们游说和推销自治的方式,从而避免了更严格的监管。“在技术政策中,“伦理”一词受到了围攻。“伦理”被用来支持放松管制、自我监管或不加干预的治理,越来越多地被认为是科技公司自我监管的努力和道德行为的肤浅表现”[15]. Whittake等人警告说,道德准则通常属于“信任我们”形式的公司自治,人们应该“警惕依赖公司自愿实施道德实践”[16]. 也有人担心,由于大学人工智能研究的大部分是由企业合作伙伴资助的,研究自由的理想在多大程度上可以得到支持可能是个问题[17]. 时间和证据将证明这些公司罕见的监管呼吁是否属实[18].

人工智能伦理原则以及遵循的技术解决方案和检查表主要关注如何改进这些算法系统。他们很少质疑持续将这些产品推向市场的商业文化、收入模式或激励机制。在他们对道德人工智能原则的框架审查中,Greene等人[19]确认道德辩论在很大程度上局限于适当的设计和实施,而不是是否应该首先建立这些系统。开发公司的商业模式和文化不需要与设计决策一样的审查水平。这些文件没有提出关于是否应该建立人工智能系统的基本道德和政治问题,而是含蓄地将技术进步视为不可避免,呼吁更好的建设[20]. 他们还将道德设计视为一个专家监督项目,并代表我们其他人画出“一个可以或应该评判人工智能道德问题的狭隘圈子”[19]. 无论是政府还是私营公司,决策都取决于权力结构。

当从作者的性别角度分析这些原则和指导方针时,结果也显示出一种偏向于男性主导的歪曲图景。哈根多夫对21项主要道德准则作者的文献分析表明,女性作者的比例仅为31%[21]. 当我们将镜头扩大到人工智能学术界的多样性、对会议的贡献或人工智能求职者或员工的数量时,数字并没有得到任何改善。平均而言,来自加州大学伯克利分校、斯坦福大学、伊利诺伊大学、卡内基梅隆大学、加州大学伦敦分校、牛津大学和苏黎世联邦理工学院的教授中有80%是男性[22]. 男性占2017年神经信息处理系统会议和研讨会(NeurIPS)、国际学习表征会议(ICLR)和国际机器学习会议(ICML)接受的贡献的88%[23].

2018年,世界经济论坛(World Economic Forum)通过对Linkedln用户进行调查,确定了人才库中的性别差距,这些用户自称拥有人工智能技能。结果显示,其中22%为女性[24]. 软件和IT服务行业的女性员工占AI人才库的7.4%[24]. 在人工智能人才最突出的三个国家(美国、印度和德国),拥有人工智能技能的女性专业人员的比例分别为23%、22%和16%[24]. 在美国,人工智能求职者中,男性约占71%。这些分析和研究为一个群体的主导地位问题提供了非常有力的理由。不幸的是,他们也假设性别是二元的,因此对非二元学者或雇员的贡献视而不见。

尽管人工智能伦理原则和指南声称是全球性的,对所有人都有益,但它们在不同地区、实体和社区的价值观和观点的表达方面仍然有限。这里担心的是,如果该领域不进行任何课程修正,同样的问题将在未来的立法、标准、投资和教育优先事项中重复出现。

需要改变什么?如何改变?

原则是一个共享基础的大纲,在这个基础上,人们可以构建并使用它作为基准来传达期望并评估可交付成果。如果没有这个通用框架,人工智能中的协同设计将更加困难[25]. 原则是任何应用道德和商业道德的重要组成部分。它们有助于将复杂的道德问题浓缩为几个核心要素,使人们能够广泛致力于共同的价值观。然而,如果不了解为什么会选择这些问题和类别,而不是其他问题,就很难确信所有相关问题都已解决。如果没有不同地区或社会成员的参与,就不清楚谁的价值观和优先事项得到了促进[26]. 了解谁坐在谈判桌前,哪些问题和担忧被搁置一边,什么权力不对称正在影响辩论的条件,这是至关重要的[27]. 正如萨沙·科斯坦扎·乔克(Sasha Costanza-Chock)警告的那样,“如果你不在餐桌上,你就在菜单上”[28].

原则提供了一种非正式手段,使人们和组织承担责任,并消除公众的担忧[29]. 尽管原则本身不够或不如法规那么有力,但被广泛接受的原则允许公民和消费者要求政府和私营公司对其公开宣布的指导价值观负责。它们为挑战这些实体忠于这些价值观提供了基础,如果他们不按照自己的说教行事,就要求采取行动和改变。不同的文化在其优先考虑的价值观上会有所不同;然而,从一个明确的原则中理解同样的事情是至关重要的。接受这些原则要求它们的定义不那么模棱两可。接受需要一致地理解它们的含义以及在实践中应该是什么样子。最后,这也意味着这些原则不仅在专家之间进行辩论,而且成为了社区之间的共同语言。目前认为理所当然的东西可以根据不同的观点进行测试和重新校准[30].

在扩展人工智能伦理原则的教训,从而为下一步行动制定路线图时,该领域的参与者,无论是非政府组织、私营公司、政府还是研究中心,都必须包括来自不同地区和边缘化社区的工作,才能真正实现全球化。在这样做时,这些实体还应注意技术专家可能占据主导地位。即使在公众参与的环境中,技术专家也在制定辩论、知识生产和决策方面发挥权威[31]. 需要特别注意并有意倾听、扩大、引用那些有过真实经历的人的意见,并与他们合作,做到真正包容[32].

未来合作伙伴关系中可能采用的解决方案和方法可以是以结果为导向的设计公正方法。例如,这种方法认为每个人都是基于自己生活经验的专家,并试图公平分配设计的利益和负担,致力于非探索性解决方案,确保公平和有意义地参与决策[33]. 道德使组织能够识别和利用社会可接受或更可取的新机会。它还使他们能够预测和避免或至少最小化代价高昂的错误[34]. 正式的科学培训不能成为决定在包容性全球论坛上听取谁的声音的唯一标准[30].

为了打破一些障碍,争取更多代表,特别是来自全球南方的代表,联合国全球人工智能咨询机构在秘书长的数字合作路线图中致力于建立一个包容各方、知情的基金会[35]为此,3C圆桌会议试图通过咨询电话联系世界各地的任何利益相关方,并鼓励尽可能广泛的回应。公司可以使用类似的方法来确定不同社区或地区采用的人工智能产品或服务,并了解这些社区的优先事项和价值。非私营实体可以利用这种方法来确定由谁开展哪些民间社会、研究和政策工作。然后,实体可以与这些团体建立研究或宣传伙伴关系,并在资助这些伙伴关系方面进行更多投资。通过这些互动,进入全球讨论的某些障碍也可能被挖掘出来。了解一个地区或社区正在发生什么,同样重要的是了解该地区没有发生什么。这些知识共同帮助人工智能设计、研究或政策领域的参与者消除障碍,创造新的空间来提高意识、倡导和吸收不同的利益相关者。正如区域包容性一样,必须进行跨学科和跨部门合作,以了解不同行动者的观点和关切。因此,重要的是,决策者、专业机构、私营公司和大学应鼓励就技术、社会问题、法律研究和道德之间的交叉点进行财政合作和辩论[36].

新的学术研究金机会或政策团队旨在将多学科研究人员和来自联合国代表地区的研究人员聚集在一起,这一点至关重要。转向任何这些项目都将为未来的政策、优先事项和治理方法创建一种更具包容性的方法。

让科技公司和教育机构承担责任,缩小各种形式的差距,对于改善工作场所的多样性至关重要。从人工智能伦理的角度来看,这对于解决未来人工智能系统、研究、政策和标准中的偏见和歧视问题也至关重要。需要政策干预来挑战有害的组织文化,并提高招聘、薪酬和绩效方面的透明度,以纠正路线。

4呼吁采取行动,从原则走向实践

人工智能伦理以及人工智能产品和服务的影响正受到关注。Jobin等人中88%的原则[10]meta分析于2018年和2019年发布。人工智能已经在我们的生活中无处不在。然而,由于许多人工智能伦理研究人员、学者[37,38,39,40,41,42,43,44,45,46]以及为偏见和/或不道德算法及其影响提供证据的调查记者,我们现在知道了人工智能治理的重要性,并要求改变和提高透明度和问责制。2020年初,人工智能伦理领域面临挑战,要求“停止像魔术一样对待人工智能,并承担起创造、应用和规范人工智能的责任”。有人建议,“尽管对这些问题只是口头上说说而已,但许多组织的人工智能道德准则仍然模糊不清,难以实施”[47]. 鉴于新闻中出现的关于面部识别、健康决策中的人工智能、社交媒体平台上的虚假信息或福利资格或欺诈检测中使用的有偏见的算法等高影响力案例,这一实践的呼声越来越高。该领域的学者、活动家、伦理学家和记者一致认为,在个人和社会层面造成更多损害之前,以及在损害侵蚀公众对目前被理解为人工智能或算法的信任之前,必须采取紧急行动。

按照这些思路,未来的辩论以及实践和治理的转变应包括关注大公司的商业和劳动实践、公司文化和激励措施、其技术的社会、种族、经济和环境影响。人工智能算法可以快速吸收、延续和合法化各种形式的偏见和伤害,这一独特的方式与以前的技术相比是一个巨大的变化,需要迅速重新评估这些工具,以确保道德和社会效益的使用[11]. 当人工智能公司和机构制定自己的道德准则,定期将道德考虑纳入其公共关系工作,或采取道德激励的“自我承诺”时,创建真正具有约束力的法律框架的努力不断受到阻碍[21]. 相反,我们需要真正的问责机制,既要在公司之外,也要向民众开放。任何融入人们生活的人工智能系统都必须能够对公民和公共利益代表进行竞争、核算和纠正,并询问哪些系统真正值得建立?哪些问题最需要解决?谁最适合建造它们?谁来决定?[48,49]这些问题的答案与公民和消费者都有利害关系。沙纳汉警告说,“权力、财富和资源集中在少数人手中的自我延续倾向”[50]. 科克尔伯格建议,“如果我们支持民主的理想,如果这一概念包括包容性和参与有关我们社会未来的决策,那么听取利益相关者的声音不是可选的,而是道德和政治上的要求”[51].

伦理原则与治理方法具有共生关系。技术伦理规则方面的工作可以成为法律的前身。他们可以对法律规则的可能内容进行定位,但不能取代法律[52]. 另一方面,监管本身并不是唯一的答案,它只是一系列工具中的一种,可以用来为道德原则提供有形的形式。鉴于数据生态系统的复杂性和动态性,吸取的经验教训和在不同级别(多级治理)协同使用各种治理工具至关重要[53].

5结论

道德和价值观对文化敏感。观点和经验的多样性为任何产品和系统提供了巨大的丰富性。人工智能伦理的这一新领域仍然需要大量工作来融合不同文化的智慧和价值观,因为它正在经历其诞生之痛,并从目前的以美国为中心的国家扩张开来。它需要解决这些原则与权力结构、结构和历史不平等的交叉点,并确保这些原则不会导致私营公司和国家之间进一步的权力失衡或剥夺选举权,私人公司或国家对个人和社区的压迫和剥削。未来工作的发展需要忠实于这些原则的主张,即全球化和惠及所有人。

在回顾原则和框架、制定路线图和选择下一步行动时,我们需要记住Cath提出的问题[54]提出,“谁制定人工智能治理的议程?该议程代表了什么文化逻辑,谁从中受益?”当这些最终导致规范、标准、实践和法规的制定时,对提议的概括和解决方案保持批评至关重要[36]. 私营企业投资于这些产品的开发并从中受益,因此预计将努力塑造对话。人工智能道德领域需要确保不会盲目地将这些目标和努力合法化,并使这些实体达到更高的标准和更好的实践。在短期内,创建负责任、合乎道德和包容的原则和商业模式将花费金钱、时间和资源。然而,从长远来看,这将有助于创造更好、可持续的产品和服务,尊重社会,满足社会需求,而不是政府和私营公司的利益。