1介绍

我们生活在人工智能(AI)时代,社会上几乎每个人都在与AI嵌入式服务或产品交互,无论是有意还是无意。此外,人工智能由于其可扩展性和社会应用程序数量的指数级增长,带来了独特的挑战。我们认为AI道德研究处于早期阶段,其特点是对诸如可信度、透明度、问责制、多样性和非歧视性等问题的认识,以及对解决道德问题的实际方法的初步想法。虽然我们作为一个领域正在迅速发展,在这种情况下,重要的是要注意到,人工智能伦理正处于十字路口。与所有知识领域一样,它也受制于权力关系、政治利益和商业目标,如季度盈利目标。我们正在道德基础上取得进展,但当涉及到应用程序的生产和实现时,我们面临着谁编写叙述和定义话语框架的已知问题。道德问题在人工智能会议和期刊上得到了越来越多的讨论,学术界和科技公司的许多研究人员正在创建框架和技术流程,以检测数据收集、模型构建和实施过程中的人工智能道德问题,但作为一个领域,我们还有大量工作要做。

谷歌解雇Timnit Gebru博士和Margaret Mitchell[1,2,]重点关注我们作为一个领域面临的许多挑战,明确需要为AI伦理研究人员在工作场所建立AI伦理文化和安全流程[4]. 我们注意到这起广为宣传的案件的一些相关方面:

  • 内部沟通显示,包括Gebru和Mitchell在内的至少三位AI伦理相关论文的作者被告知不要对谷歌的技术进行负面评价[2,].

  • 他们论文的研究成果集中在大型语言模型上,例如来自变压器的双向编码器表示(BERT)[5]作为谷歌搜索引擎的一部分,它影响了数十亿人。

  • 谷歌等跨国公司可以在全球范围内产生巨大影响,并在多个司法管辖区利用其市场地位和资源。

  • 偏见和歧视得到承认,与人工智能的使用有关的严重问题;许多组织中的系统性种族主义造成了各种因素,这些因素涉及破坏各种声音,尤其是黑人的声音。需要进行更加系统和彻底的分析,以了解它们以及它们是如何相互作用和产生负面影响的。新闻来源报道了这些因素,如缺乏晋升机会、薪酬不公平、缺乏赞助、骚扰事件、不公平的人力资源实践以及更加严格的纪律,其中一些据报道扩展到了他们的内部盟友。有必要了解,尽管各组织实施了多样性、公平性和包容性计划,但这些因素在多大程度上仍然存在,以及为什么这些计划未能防止环境被视为对黑人和其他代表性不足的员工怀有敌意。

  • 大型科技公司正在雇佣世界上大部分最优秀的研究人员(例如,谷歌、苹果、脸书、亚马逊和微软),雇佣了来自美国顶尖大学的约10万名员工[6])因此,他们对独立科学承担了一定的责任,这一角色传统上由大学和其他学术机构扮演。

  • 某些少数群体在GAFAM公司的劳动力中的代表性严重不足(通常是在与AI相关的角色中),这可能导致缺乏对研究项目中不同观点和生活经验的价值的重视,并导致不公平的工作文化和做法,使少数民族研究人员面临更大的被压制风险。

2013年,欧洲环境署(EEA)在一份报告中解释道[7]它的许多案例研究揭示了“早期预警科学家面临的问题,这些科学家因其开创性工作而受到骚扰,包括禁止发表言论或出版、资金损失、法律或其他威胁以及降级”并得出结论,一个显而易见的解决方案是“处于这种情况下的科学家应该通过扩大举报和歧视法,或者通过独立承认其工作的价值,得到更好的保护”。这句话今天在人工智能伦理研究方面听起来也是正确的。2020年,Gebru在一次采访中表示:“我不认为教训是科技公司不应该有人工智能道德研究,但我认为教训是a)需要有更多的独立研究,b)需要对科技公司进行监督”[2].

现在是时候为人工智能伦理研究人员和科学家提供更好的保护了,这是实施最新人工智能原则的第一个具体步骤,其中包括改进举报保护。举报人现在是公认的揭露欺诈等不道德行为的基本机制[8]虽然检举法最近有所改进,但我们需要采用统一的检举法,以简化和便利我们面临的现有复杂法律程序[7]包括针对报复的同等保护和补救措施。收集有关公司道德属性的数据可以确定与股票价值的相关性,以测试公司道德声誉的重要性。大部分人工智能研究是由行业完成的[6]因此,人工智能伦理研究也必须在那里进行,而不仅仅是在学术研究机构。

2人工智能伦理(非常)短暂的历史

在过去的十年中,学术界(如本杰明)对人工智能的伦理给予了很多关注[8]; 博丁顿[9]; 博斯特罗姆[10]; 布伦维尼[11]; 科克尔伯格[12]; 米特尔斯塔特[13]; 贵族[4]; Wachter等人[14])在公共政策方面(例如,欧盟委员会、英国上议院、美国、韩国、中国),以及在企业界,像谷歌和微软这样的大公司围绕AI道德采取了以自我监管为重点的举措。这使公众更加关注人工智能的道德,并产生了许多具有道德人工智能原则的框架。然而,公共和私营部门中的一些举措被称为“道德清洗”,甚至是“道德购物”(Wagner[15]):然后使用道德框架和倡议来避免监管,并强调私营部门的作用。尽管如此,公司和政府已经聘请了伦理学家,他们通常会在组织内从事旨在提高道德和责任感的人工智能的良好工作。

理论上,这些伦理学家至少可以扮演两个角色:

  1. 1.

    一种是建设性的,目的是在技术开发或

  2. 2

    另一个是告密者。

2018年,更多的首席执行官因道德失误而被解雇,而非财务业绩或董事会斗争[16]从而提高了企业领导层对AI道德讨论的关注度。随着人工智能技术的使用越来越多,关于企业和科技公司社会责任的讨论愈演愈烈。由于AI系统道德开发和部署的许多指导原则已经形成,并已正式化为技术解决方案(例如IBM解释性和公平性360工具),关于产业如何确保人工智能道德框架能够转化为创新政策和战略决策的实际改变,出现了一些问题。许多商业领袖承认,人工智能将大大改变他们的行业,并同意道德是这一转变的主要关注点[17,18,19,20,23]. 自那时以来,对道德问题的关注只增加了,行业领导者正在考虑或采用有关人工智能道德的政策,尽管框架影响商业实践的方式往往不透明。

2020年10月,31名科学家给科学杂志《自然》写了一封措辞严厉的信[21]. 该杂志于当年早些时候发表了一项研究,记录了谷歌健康(GoogleHealth)对人工智能系统的描述,该系统搜索医学图像以诊断乳腺癌。在他们的信中,科学家们认为这项研究只是专利技术的商业化,而不是一项严格的研究。该回复的主要作者本杰明·海贝·凯恩斯写道:“当我们看到谷歌的那篇论文时,我们意识到这是一份备受瞩目的期刊发表了一项与科学无关的令人激动的研究的又一个例子。”。“这并不是特别关于这项研究,这是我们多年来一直看到的一种趋势,它开始真正困扰我们。”这项研究的一个主要问题是缺乏可重复性。在他们的文章中,研究人员几乎没有分享人工智能系统如何实现其结果的细节,以至于他们无法复制其结果。再现性淘汰了低水平的研究,是出版科学的关键部分。

为了实现人工智能的再现性,研究人员必须提供模型训练的具体方面的透明度。这些特殊性会因用例而异,因此考虑到每个模型的细微差别,研究人员需要分享模型是如何训练的,以及开发过程中的任何障碍。AI伦理学的这一实用部分,试图将这些发现和关注应用于现实世界的现象学,是我们当前文章的重点。

一些关键问题

AI道德专业人士正积极参与讨论组织责任[22,23,24,25,25,26,27,28,29,30,31,32,33,34,35,36,38,39,44],我们鼓励更加广泛地关注以下问题:

  1. a。

    企业内部和企业资助的人工智能伦理研究存在根本利益冲突。作为一个社区,我们可以提出AI伦理研究在行业、学术界和更广泛的民间社会中的看法,并使其可见。最近的几部作品探讨了私营公司目标与公正的人工智能伦理研究之间的紧张关系。事实上,如果道德人工智能分析发现赞助公司自己的产品存在潜在问题,那么该公司几乎没有动机承认该问题,因此对其解决方案几乎没有监督。这可以部分归因于缺乏道德人工智能的国家或全球框架,以及缺乏正式的监管。当这些标准没有达成一致或没有社会约束力时,期望公司遵守道德标准是幼稚的。因此,我们必须采取多方面的方法,而不是完全依赖公司自治。人工智能系统的独立审计已经成为衡量系统偏差等问题的关键组成部分,一些工作表明,这些审计可以量化地减少偏差[25,26]. 作为一个专业团体,我们应该鼓励企业允许其AI道德研究人员与独立研究人员合作,以期望公布结果来进行这些审计。同样,我们应该提倡对算法危害进行更具体的定义,并制定适当的政府政策,因为这将给企业带来额外的外部压力,迫使它们优先重视人工智能道德工作,并引起公众对这些问题的更多关注。AI必须在社会和法律上被视为对公众负有信托责任的职业,就像医学领域有着强大的职业道德规范历史一样[7].

  2. b。

    系统性种族主义和其他文化上根深蒂固的歧视机制的问题使这种利益冲突的严重性成倍增加——这种冲突微不足道,也许是非线性的,甚至是反直觉的[22,24,36,38,39,44]. 人工智能伦理研究成为两个问题交叉的地方。AI伦理研究人员有责任揭露这种有害的动态,因此特别容易受到来自多个角度的攻击,而这些攻击恰恰是他们负责发现和尝试补救的机制。这些努力将大大有助于确保一个强大的人工智能伦理研究社区,但我们不能忽视人工智能伦理与系统性种族主义和其他文化编码的歧视机制问题的交叉。众所周知,少数民族、女性、LGBTQ+个人和其他群体在人工智能研究和其他关键技术角色中的代表性不足[24]. 这意味着,AI伦理研究人员通常会对这些人群提出担忧,而这些人群并没有直接受到问题的影响,事实上,他们可能在项目中拥有其他个人或企业利益。人工智能伦理工作的性质要求能够分析和批判权力体系,如果研究人员的工作没有得到适当的背景化或回应,这一行为往往会使研究人员处于极为脆弱的地位。这对工业界和学术界的人工智能伦理研究人员来说都是如此,他仍然可以因大胆发言而面临个人和职业后果。

  3. c。

    确保AI伦理研究人员能够为每个人的利益而工作的紧迫性意味着他们需要额外的保护层,无论他们在哪里工作。认真反思正常的企业研究环境将非常重要。公司从任何角度检查科学出版物中的敏感材料都是一种普遍做法。许多企业研究人员已经习惯了这种情况——编辑会发生,有时出版物会被屏蔽。因此,审查公司的研究出版物并不是重点,也不一定总是一个问题。

4这关系到什么?

对各种利益相关者的潜在巨大负面和持久影响可以从以下三个关键领域进行描述:

4.1AI伦理研究社区分裂的危险

2020年NeurIPS会议(尽管其本身主要由大科技赞助)与Gebru博士和其他声音研究人员举行了一次“抵制人工智能研讨会”,得出结论:“人工智能研究一直将权力集中在政府和公司手中,远离边缘化社区”[25]. 最近,Access Now公开退出合作,退出AI合作伙伴关系[39]表示他们“没有发现AI合作造福人民和社会(PAI)[34]影响或改变成员公司的态度,或鼓励他们在系统的基础上回应或咨询民间社会”。PAI由苹果、亚马逊、DeepMind和谷歌、脸书、IBM和微软于2016年成立,旨在“研究和制定人工智能技术的最佳实践,促进公众对人工智能的理解,并作为一个开放平台,讨论和参与人工智能及其对人类和社会的影响。”Access Now的离开并不是第一个批评。2018年,一些媒体实验室员工提出了担忧,“PAI与ACLU、麻省理工学院和其他学术/非营利机构的联系实际上最终会起到合法化的作用。ACLU,麻省理学院和任何非营利机构在PAI中都没有任何权力”。因此,威胁是代表民间社会及其不同社区利益的组织与技术行动者之间的分裂。与其告知对方的研究和参考系统,还存在着在双方建立回声室的风险。

4.2独立性和研究方向

内部和外部研究的资金要求以及传播研究的控制,不仅可能影响研究的独立性,也可能影响研究和创新的方向。企业资助的研究通常要求项目与公司的商业利益相一致,并且可以通过保密协议加以保护。GAFAM和国防公司雇佣了世界上大部分最优秀的研究人员,并资助了相当一部分顶尖的人工智能研究人员[]. 作为资助者,他们可以决定应该和不应该研究什么。公司资助并不意味着研究人员不能诚信或道德行事;然而,企业在决定研究问题时的把关能力可能会破坏硅谷“做好事”座右铭的承诺和人工智能伦理的基本目标,即为建立一个尊重人权的更公平、更公平的社会做出贡献。玛格丽特·米切尔(Margaret Mitchell)评论道:“如果我们根据自己的专业知识研究合适的东西,并且我们不被允许以不符合高质量同行评审的理由发表,那么我们将面临严重的审查问题”[18]. 把关可以让这些资助者“撇开这些新兴技术的道德复杂性”。即使是许多已发表的人工智能道德原则和指导方针,也很少质疑商业文化、收入模式和激励机制,这些都会不断将可疑或有害的人工智能产品推向市场[19,20,23]. 他们也没有将焦点放在AI领域的公私合作和行业资助研究上。

4.3多样性和代表性

对人工智能伦理研究的负面甚至敌视态度来自不同背景的人。另一个例子是,许多大公司开发了可用于支持残疾人的人工智能应用程序。日常应用包括语音技术,用于操作电脑、智能手机、回答问题、播放音乐和帮助进行一般组织活动。其中许多应用程序为残疾人提供了巨大的支持和价值;然而,他们也可能辜负诺言,感到沮丧[45]. 这些公司有义务让残疾人社区参与人工智能产品的共同设计,并反思这样做的道德。当然,这并不容易实现。任何社区最终都是多样化、复杂和难以定义的。然而,这并不意味着公司和技术提供商/设计师不应试图让尽可能多的残疾人参与其产品和整个价值链的设计,包括由具有不同经验的研究人员进行的AI伦理研究。当涉及到谁被“允许”在AI伦理研究中发言时,包容和排斥关系重大。同时,包容和排斥是人工智能伦理学的研究范畴。其结果是一种潜在的自我复制和缩放循环研究实践,破坏了AI伦理研究旨在揭示和提出补救措施的机制。这显然具有政治含义:政治和经济权力的包容性和排他性的遗留问题现在正处于“烘烤”决策支持甚至自主决策的技术手段的边缘,补救的现实可能性值得怀疑,一旦这些系统部署并广泛应用于人力资源、警务、司法、教育、医疗和其他对社会运行和公民权利至关重要的领域。脚注1

5前进的道路

我们以一系列具体可行的初步想法作为本文的结尾,并敦促我们的全球专业团体进行研究和讨论。人工智能研究和开发的未来将对全球公民和社会产生巨大的积极和消极影响,我们必须从现在开始减轻这些危险。AI伦理研究对此至关重要。

鉴于人工智能潜在的道德挑战,应支持相关研究团体研究人工智能引发的道德和社会问题,关注排斥和包容问题,在学术界和企业倡议之间架起桥梁,并在相关工程和计算机科学课程中实施伦理学。一个积极且有意识的AI伦理研究社区可以努力提高AI伦理调查及其工作人员的看待和对待标准。我们围绕以下主题提出战略研究议程:

  • AI道德研究和社会问题(排除和包容)。

  • 企业风险治理与人工智能伦理研究。

  • 工程课程中的人工智能伦理研究。

  • 人工智能伦理研究和为人工智能消除大数据风险。

  • 人工智能伦理研究在公共资助研究和行业合作中的作用。

  • 如何为纳入人工智能伦理研究的公司提供指导。

特别是,我们提出以下行动要点:

  1. a。

    确保所有人在机构内都受到尊重,无论研究人员与否。这意味着要听取他们的观点,并受到合乎道德的对待,在相关就业法保护的范围和限制内,对影响个人的决定作出合理解释。

  2. b。

    组织道德治理,例如,在拥有至少50%外部成员的公司和大学中实施道德委员会,尤其是在研究项目、用户研究甚至产品方面。组织应建立适当的治理框架,使其能够以安全和保密的方式在内部或与外部同行讨论研究结果。

  3. c。

    例如,资助机构(如美国的国家科学基金会或欧盟的ERC、日本的MEXT、中国的科学基金会等)可以将人工智能伦理研究纳入主流,为特定项目的人工智能研究提供一定比例的资金。

  4. d。

    倡导公司,尤其是大型组织,公开其道德人工智能指南和最佳实践,并在其年度报告中提供合规信息。

  5. e、。

    AI社区可以将AI伦理研究与COI声明以及关于谁资助、谁支持绿色出版物以及依据什么标准的透明度一起作为规范。缺少此类声明的论文将越来越含蓄地承认缺乏尽职调查。

  6. f、。

    在进行人工智能伦理和人工智能基础研究的企业环境中实施独立的举报机制。(有关生物伦理学中告密的讨论,请参阅[31].)

  7. g。

    在学术期刊上为“人工智能伦理研究的伦理”提供空间,并可能为指定的“调查作品”或“见证作品”发布选项,这些作品与常规学术格式不同,但可以进行事实检验。

  8. 小时。

    积极为我们社区中被低估、歧视或审查的成员提供一个平台,知道他们在发言时冒着更大的风险,并因此付出额外的努力来支持他们。

  9. i、。

    为在充满挑战的环境中工作的人工智能伦理研究人员提供指导。

  10. j。

    建立一个中央机制,要求研究人员和/或资助者在提交任何论文时向中央(或分散的区块链)数据库提交研究资助的详细信息。我们需要企业、政府和学术研究资金的透明度,以评估影响和影响范围。发表论文将有助于传播所需信息,但我们的机构和公司通过分配资源可以获得更广泛的信息。

  11. k、。

    探索实现道德人工智能的技术解决方案。例如,安全、不可变和可验证的标准,记录特定算法在公司或公共应用程序(如人力资源、医疗、司法、社交媒体)中的使用时间和使用对象可以大大提高此类记录的可信度,并恢复某些道德主张的独立可验证性。因此,这也可能成为企业设计系统时考虑到这一点的强大动力。然而,需要注意的是,DLT并不是一种简单的“技术修复”方法,它可以解决行为和社会问题的根源。DLT有自己的一套道德问题,必须注意不要引进这些问题,使事情变得更糟而不是更好。在这里,打破学科之间的界限也是唯一现实的出路。

6总结和结论

受最近事件的影响,我们建议全球AI伦理研究人员重新努力,促进AI研究和开发的积极使用并减轻其有害影响。我们需要在我们的职业中制定明确和可行的标准,以指导技术未来,为个人和社会提供更好的生活。企业和学术研究环境需要责任、义务、异议和利益冲突。这篇文章旨在为本世纪初关于如何为我们的机构、社会和个人制定AI道德规范的共识和分歧问题提供一个参考点。我们已经确定了信息技术行业交叉点、社会编码行为和偏见以及单个研究人员的工作和责任中出现的问题。企业、政府和学术研究组织的合法目标必须考虑到AI技术的治理,因为它们会影响我们的未来。

“大科技”公司在发展和使用人工智能方面的作用,以及在招聘、雇佣和治疗人工智能研究人员方面的作用都给他们带来了巨大的责任,他们现在必须承认这一点并与之会面。很明显,社交媒体平台使用了最初开发的基于A.I.的模式匹配算法或消费者特征分析,以信息和错误信息为目标用户,这可能会让他们在线更长时间。2020年9月,前高级执行官蒂姆·肯德尔(Tim Kendall)在国会听证会上作证,听证会题为“极端主义主流化:社交媒体在激进主义美国中的作用”[44]. 肯德尔在证词中声称,故意使用A.I来“上瘾”用户,让他们尽可能长时间在线,以最大限度地发挥商业优势,而以错误信息瞄准用户是这一过程的一部分。肯德尔热情地描述了他认为这一策略对社会的破坏性,并将其比作从20世纪50年代到80年代(甚至可以说是现在)的“大烟草”行为他们隐瞒了吸烟的危险和尼古丁的成瘾性,同时在产品中添加成分(糖、薄荷醇),以增加他们否认的成瘾[22,45]. 甚至还有一个与汽车行业类似的例子,汽车行业拒绝引入安全带等安全措施,尽管从道路交通事故数据中有大量证据表明需要此类措施[46]. 最后,当像拉尔夫·纳德这样的“告密者”公开汽车制造商压制的信息时,他们被迫面对这些问题[47].

“大科技”会成为我们这个时代的“大烟草”或“大汽车”吗?社交媒体和浏览器巨头是否会站出来,对他们如何开发和使用A.I.以及如何对待他们雇佣的研究人员(包括那些想就这些技术的影响提出伦理和道德问题的人)承担责任?关键问题似乎是信任问题。我们能相信“大科技”会自己做正确的事吗?不像大烟草和大汽车,他们必须通过监管、监督和立法来强制这样做吗?信任问题对于“大科技”在我们社会中已经发挥的作用至关重要,而他们对人工智能的使用是关键。英国上议院最近成立了一个由David Puttnam勋爵领导的特别委员会,他在委员会的报告“数字技术与信任的恢复”中直接谈到了信任问题[48]. 普特南勋爵表示,与新冠肺炎疫情相比,我们面临的社会威胁更大,即:“……一种影响我们英国所有人的病毒,一种“错误信息”和“虚假信息”的流行病。如果允许这些虚假真相泛滥,将导致公众信任的崩溃,而没有我们所知道的信任民主,它将只会变得无关紧要。”

知识自由是一种必要条件为AI道德研究奠定可靠、安全和公平的数据经济基础。通过实施对知识自由的限制,可能会获得短期的公司或国家行为者优势。然而,从中长期来看,这些限制的负面外部性将不成比例地超过任何收益。它将在必须建立和赢得信任的地方播撒怀疑和疑虑。

由于人工智能伦理的一个蓬勃发展、多样性和知识严谨的领域对保障社会合法民主利益以及技术进步具有根本重要性,因此其研究人员的知识自由需要特殊保护。虽然衡量的监管方法是必要的,也是有益的,但最终,这是一个强大、开放和交流的全球人工智能道德社区,可以提高企业、大学、政府和其他利益相关者在快速变化的经济中如何对待其最有价值的资产之一的标准。可以肯定的是,经济越来越建立在人工智能的基础上,并得到了人工智能的帮助。因此,我们所有人,所有利益相关者,都有责任作为一个社区,在人工智能伦理研究中要求和保护知识自由,无论环境如何。明确地说,公司对保护由其资助和雇用的研究人员的知识自由的责任不能是“拥有的好”,必须作为一个原则来体现。我们经历了历史上的一个时刻,也经历了一个做正确事情的机会,这可能永远不会回来。