一些在线平台[4,5,6]对世界各地出版的所有人工智能伦理原则和指南进行最新盘点,一些研究论文已经完成了对这些文件的元分析。
对这些平台的回顾和已发表的分析研究告诉我们,就内容而言,这些文件侧重于类似的价值观和优先级,但定义不同。在2019年对人工智能道德准则的“全球”景观进行的元分析中,Jobin等人[7]审查公开发布的84项AI道德准则。研究结果表明,尽管这些文件中没有任何一个共同的原则,但其中一半以上的文件包括透明度、公正性、无害性、责任和隐私等主题。不同准则中重复的其他主题包括尊重人的自主性和尊严、可解释性、仁慈和信任。Fjeld等人[8]2020年对不同文件样本的研究表明,虽然存在一定的趋同点,但所审查的36份主要文件之间决不存在一致性。本次审查的所有文件都提出了公平和非歧视原则,其他关键主题是隐私、问责制、安全保障、透明度和可解释性、人类对技术的控制、职业责任和促进人类价值。类似原则的趋同,但每个参与者如何定义这些相同原则的差异,在讨论中造成了不一致和混乱。相似的术语意味着不同的东西,因此可以有各种各样的解释。这使得更难让行动者对其承诺负责。它还允许“数字道德购物”的可能性,即私人和公共行为者混合和匹配道德原则、指导方针、规范和框架,以证明他们当前的行为是合理的,而不是通过将其与公共道德标准进行比较来修正他们的行为[9].
就地理分布而言,Jobin等人[10]数据显示,美国(25%)和英国(15.5%)、欧盟成员国、加拿大、冰岛和挪威及其机构(26%)的代表性显著。这些共同构成了所有人工智能伦理原则的67%,并显示出美国西部价值观的重大影响。日本占4.8%,阿联酋、印度、新加坡、韩国和澳大利亚各有一份妥协文件,总计占6%。然而,非洲、南美洲、中美洲和中亚国家(印度除外)没有独立于国际或超国家组织(如世界经济论坛、G20、经合组织或教科文组织)的代表。中国于2019年发布了原则。尽管人们可以认为这些分析中包含的原则可能存在语言偏见(例如,在Jobin等人的分析中,只选择了用英语、德语、法语、意大利语或希腊语编写的原则;而在Fjeld等人的分析里,则选择了用英文、中文、法语、德语和西班牙语编写的原则),那么人们也需要接受这样一个障碍,即该领域需要纠正和集中精力,以确保能够获得其他语言区域的工作。获取研究的语言障碍并不是新的障碍。然而,考虑到人工智能对生活的所有领域的影响及其跨越国界的影响,语言仍然是不可接受的障碍。它可以通过全球伙伴关系、虚拟连接和增加资金来克服。在这些地区没有代表的情况下,“经济较发达的国家比其他国家更能影响这场辩论,这引发了人们对忽视当地知识、文化多元化和全球公平要求的担忧”[10]. 如果原则、指导方针或实践不包括任何伦理观点、社区参与或非洲、拉丁美洲或中亚的社会历史背景,那么该领域需要质疑这些原则、指导原则或实践如何“全球化”。Mohamed等人从算法群体性的角度看待数据和人工智能实践的发展,并警告不要重复历史。提醒实践者批判性地参与这种继承,避免算法殖民主义,并揭示技术部署背后的权力关系[11].
资助创建AI的实体对AI原则文件的细分显示,23%由私营公司制作,21%由政府机构、学术和研究机构制作,然后由政府间或超国家组织制作,分别占11%和10%,非营利组织和专业协会/科学协会各占8.3%。私营公司的代表性略有相似,但就不同平台的趋势而言也是如此。AI伦理实验室显示,在平台中列出的103份文档中,来自私营公司的AI原则占34%[12]; Fjeld等人[13]研究表明,在审查的36份文件中,私人资金占22%;和AlgoritmWatch的AI道德准则全球清单[14]显示,在他们选择的160家上市公司中,私营公司占26%。这些不同的审查表明,私营公司的原则几乎与政府机构的原则一样多。人工智能方法的使用指南不是在真空中制定的,而是由开发和使用这些方法的公司和组织的决策过程、意图和局限性决定的[14]. 私营公司的这些努力被批评为他们游说和推销自治的方式,从而避免了更严格的监管。“在技术政策中,“伦理”一词受到了围攻。“伦理”被用来支持放松管制、自我监管或不加干预的治理,越来越多地被认为是科技公司自我监管的努力和道德行为的肤浅表现”[15]. Whittake等人警告说,道德准则通常属于“信任我们”形式的公司自治,人们应该“警惕依赖公司自愿实施道德实践”[16]. 也有人担心,由于大学人工智能研究的大部分是由企业合作伙伴资助的,研究自由的理想在多大程度上可以得到支持可能是个问题[17]. 时间和证据将证明这些公司罕见的监管呼吁是否属实[18].
人工智能伦理原则以及遵循的技术解决方案和检查表主要关注如何改进这些算法系统。他们很少质疑持续将这些产品推向市场的商业文化、收入模式或激励机制。在他们对道德人工智能原则的框架审查中,Greene等人[19]确认道德辩论在很大程度上局限于适当的设计和实施,而不是是否应该首先建立这些系统。开发公司的商业模式和文化不需要与设计决策一样的审查水平。这些文件没有提出关于是否应该建立人工智能系统的基本道德和政治问题,而是含蓄地将技术进步视为不可避免,呼吁更好的建设[20]. 他们还将道德设计视为一个专家监督项目,并代表我们其他人画出“一个可以或应该评判人工智能道德问题的狭隘圈子”[19]. 无论是政府还是私营公司,决策都取决于权力结构。
当从作者的性别角度分析这些原则和指导方针时,结果也显示出一种偏向于男性主导的歪曲图景。哈根多夫对21项主要道德准则作者的文献分析表明,女性作者的比例仅为31%[21]. 当我们将镜头扩大到人工智能学术界的多样性、对会议的贡献或人工智能求职者或员工的数量时,数字并没有得到任何改善。平均而言,来自加州大学伯克利分校、斯坦福大学、伊利诺伊大学、卡内基梅隆大学、加州大学伦敦分校、牛津大学和苏黎世联邦理工学院的教授中有80%是男性[22]. 男性占2017年神经信息处理系统会议和研讨会(NeurIPS)、国际学习表征会议(ICLR)和国际机器学习会议(ICML)接受的贡献的88%[23].
2018年,世界经济论坛(World Economic Forum)通过对Linkedln用户进行调查,确定了人才库中的性别差距,这些用户自称拥有人工智能技能。结果显示,其中22%为女性[24]. 软件和IT服务行业的女性员工占AI人才库的7.4%[24]. 在人工智能人才最突出的三个国家(美国、印度和德国),拥有人工智能技能的女性专业人员的比例分别为23%、22%和16%[24]. 在美国,人工智能求职者中,男性约占71%。这些分析和研究为一个群体的主导地位问题提供了非常有力的理由。不幸的是,他们也假设性别是二元的,因此对非二元学者或雇员的贡献视而不见。
尽管人工智能伦理原则和指南声称是全球性的,对所有人都有益,但它们在不同地区、实体和社区的价值观和观点的表达方面仍然有限。这里担心的是,如果该领域不进行任何课程修正,同样的问题将在未来的立法、标准、投资和教育优先事项中重复出现。