摘要
探索相关主题
1 介绍
-
内部沟通显示,包括Gebru和Mitchell在内的至少三位AI伦理相关论文的作者被告知不要对谷歌的技术进行负面评价[ 2 , 三 ]. -
他们论文的研究成果集中在大型语言模型上,例如来自变压器的双向编码器表示(BERT)[ 5 ]作为谷歌搜索引擎的一部分,它影响了数十亿人。 -
谷歌等跨国公司可以在全球范围内产生巨大影响,并在多个司法管辖区利用其市场地位和资源。 -
偏见和歧视得到承认,与人工智能的使用有关的严重问题; 许多组织中的系统性种族主义造成了各种因素,这些因素涉及破坏各种声音,尤其是黑人的声音。 需要进行更加系统和彻底的分析,以了解它们以及它们是如何相互作用和产生负面影响的。 新闻来源报道了这些因素,如缺乏晋升机会、薪酬不公平、缺乏赞助、骚扰事件、不公平的人力资源实践以及更加严格的纪律,其中一些据报道扩展到了他们的内部盟友。 有必要了解,尽管各组织实施了多样性、公平性和包容性计划,但这些因素在多大程度上仍然存在,以及为什么这些计划未能防止环境被视为对黑人和其他代表性不足的员工怀有敌意。 -
大型科技公司正在雇佣世界上大部分最优秀的研究人员(例如,谷歌、苹果、脸书、亚马逊和微软),雇佣了来自美国顶尖大学的约10万名员工[ 6 ])因此,他们对独立科学承担了一定的责任,这一角色传统上由大学和其他学术机构扮演。 -
某些少数群体在GAFAM公司的劳动力中的代表性严重不足(通常是在与AI相关的角色中),这可能导致缺乏对研究项目中不同观点和生活经验的价值的重视, 并导致不公平的工作文化和做法,使少数民族研究人员面临更大的被压制风险。
2 人工智能伦理(非常)短暂的历史
-
1. 一种是建设性的,目的是在技术开发或 -
2 另一个是告密者。
三 一些关键问题
-
a。 企业内部和企业资助的人工智能伦理研究存在根本利益冲突。 作为一个社区,我们可以提出AI伦理研究在行业、学术界和更广泛的民间社会中的看法,并使其可见。 最近的几部作品探讨了私营公司目标与公正的人工智能伦理研究之间的紧张关系。 事实上,如果道德人工智能分析发现赞助公司自己的产品存在潜在问题,那么该公司几乎没有动机承认该问题,因此对其解决方案几乎没有监督。 这可以部分归因于缺乏道德人工智能的国家或全球框架,以及缺乏正式的监管。 当这些标准没有达成一致或没有社会约束力时,期望公司遵守道德标准是幼稚的。 因此,我们必须采取多方面的方法,而不是完全依赖公司自治。 人工智能系统的独立审计已经成为衡量系统偏差等问题的关键组成部分,一些工作表明,这些审计可以量化地减少偏差[ 25 , 26 ]. 作为一个专业团体,我们应该鼓励企业允许其AI道德研究人员与独立研究人员合作,以期望公布结果来进行这些审计。 同样,我们应该提倡对算法危害进行更具体的定义,并制定适当的政府政策,因为这将给企业带来额外的外部压力,迫使它们优先重视人工智能道德工作,并引起公众对这些问题的更多关注。 AI必须在社会和法律上被视为对公众负有信托责任的职业,就像医学领域有着强大的职业道德规范历史一样[ 7 ]. -
b。 系统性种族主义和其他文化上根深蒂固的歧视机制的问题使这种利益冲突的严重性成倍增加——这种冲突微不足道,也许是非线性的,甚至是反直觉的[ 22 , 24 , 36 , 38 , 39 , 44 ]. 人工智能伦理研究成为两个问题交叉的地方。 AI伦理研究人员有责任揭露这种有害的动态,因此特别容易受到来自多个角度的攻击,而这些攻击恰恰是他们负责发现和尝试补救的机制。 这些努力将大大有助于确保一个强大的人工智能伦理研究社区,但我们不能忽视人工智能伦理与系统性种族主义和其他文化编码的歧视机制问题的交叉。 众所周知,少数民族、女性、LGBTQ+个人和其他群体在人工智能研究和其他关键技术角色中的代表性不足[ 24 ]. 这意味着,AI伦理研究人员通常会对这些人群提出担忧,而这些人群并没有直接受到问题的影响,事实上,他们可能在项目中拥有其他个人或企业利益。 人工智能伦理工作的性质要求能够分析和批判权力体系,如果研究人员的工作没有得到适当的背景化或回应,这一行为往往会使研究人员处于极为脆弱的地位。这对工业界和学术界的人工智能伦理研究人员来说都是如此, 他仍然可以因大胆发言而面临个人和职业后果。 -
c。 确保AI伦理研究人员能够为每个人的利益而工作的紧迫性意味着他们需要额外的保护层,无论他们在哪里工作。认真反思正常的企业研究环境将非常重要。 公司从任何角度检查科学出版物中的敏感材料都是一种普遍做法。 许多企业研究人员已经习惯了这种情况——编辑会发生,有时出版物会被屏蔽。 因此,审查公司的研究出版物并不是重点,也不一定总是一个问题。
4 这关系到什么?
4.1 AI伦理研究社区分裂的危险
4.2 独立性和研究方向
4.3 多样性和代表性
5 前进的道路
-
AI道德研究和社会问题(排除和包容)。 -
企业风险治理与人工智能伦理研究。 -
工程课程中的人工智能伦理研究。 -
人工智能伦理研究和为人工智能消除大数据风险。 -
人工智能伦理研究在公共资助研究和行业合作中的作用。 -
如何为纳入人工智能伦理研究的公司提供指导。
-
a。 确保所有人在机构内都受到尊重,无论研究人员与否。 这意味着要听取他们的观点,并受到合乎道德的对待,在相关就业法保护的范围和限制内,对影响个人的决定作出合理解释。 -
b。 组织道德治理,例如,在拥有至少50%外部成员的公司和大学中实施道德委员会,尤其是在研究项目、用户研究甚至产品方面。 组织应建立适当的治理框架,使其能够以安全和保密的方式在内部或与外部同行讨论研究结果。 -
c。 例如,资助机构(如美国的国家科学基金会或欧盟的ERC、日本的MEXT、中国的科学基金会等)可以将人工智能伦理研究纳入主流,为特定项目的人工智能研究提供一定比例的资金。 -
d。 倡导公司,尤其是大型组织,公开其道德人工智能指南和最佳实践,并在其年度报告中提供合规信息。 -
e、。 AI社区可以将AI伦理研究与COI声明以及关于谁资助、谁支持绿色出版物以及依据什么标准的透明度一起作为规范。缺少此类声明的论文将越来越含蓄地承认缺乏尽职调查。 -
f、。 在进行人工智能伦理和人工智能基础研究的企业环境中实施独立的举报机制。 (有关生物伦理学中告密的讨论,请参阅[ 31 ].) -
g。 在学术期刊上为“人工智能伦理研究的伦理”提供空间,并可能为指定的“调查作品”或“见证作品”发布选项,这些作品与常规学术格式不同,但可以进行事实检验。 -
小时。 积极为我们社区中被低估、歧视或审查的成员提供一个平台,知道他们在发言时冒着更大的风险,并因此付出额外的努力来支持他们。 -
i、。 为在充满挑战的环境中工作的人工智能伦理研究人员提供指导。 -
j。 建立一个中央机制,要求研究人员和/或资助者在提交任何论文时向中央(或分散的区块链)数据库提交研究资助的详细信息。 我们需要企业、政府和学术研究资金的透明度,以评估影响和影响范围。 发表论文将有助于传播所需信息,但我们的机构和公司通过分配资源可以获得更广泛的信息。 -
k、。 探索实现道德人工智能的技术解决方案。例如,安全、不可变和可验证的标准,记录特定算法在公司或公共应用程序(如人力资源、医疗、司法、社交媒体)中的使用时间和使用对象 可以大大提高此类记录的可信度,并恢复某些道德主张的独立可验证性。 因此,这也可能成为企业设计系统时考虑到这一点的强大动力。 然而,需要注意的是,DLT并不是一种简单的“技术修复”方法,它可以解决行为和社会问题的根源。 DLT有自己的一套道德问题,必须注意不要引进这些问题,使事情变得更糟而不是更好。 在这里,打破学科之间的界限也是唯一现实的出路。
6 总结和结论
更改历史记录
2021年5月6日
笔记
这一小段是由其中一位作者使用语音技术编写的。 这项技术运行得很好,尽管需要更正一些单词。 然而,如果没有这种技术,作者就无法工作或写作。 因此,这并不是一种批评,只是呼吁残疾人参与未来产品的共同设计。
工具书类
郝凯:我们读了一篇迫使Timnit Gebru退出谷歌的文章。 下面是它所说的。 麻省理工学院技术评论。 (2020). https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/ 郝凯:我开始哭了:在Timnit Gebru在谷歌的最后几天里,接下来会发生什么。 麻省理工学院技术评论。 (2020). https://www.technologyreview.com/2020/12/16/1014634/google-ai-ethics-lead-timenit-gebru-tells-story网站/ Johnson,K.:谷歌在解雇Timnit Gebru后,将目标对准了人工智能伦理负责人Margaret Mitchell。 VentureBeat(2021)。 https://venturebeat.com/2021/01/20/google-targets-ai-ethics-lead-margaret-mitchell-after-firing-timnit-gebru/ Noble,S.:压迫算法:搜索引擎如何强化种族主义。 纽约大学出版社,纽约(2018) Devlin,J.和Chang,M.:《开源BERT:自然语言处理的最先进预培训》(2018年11月2日)发布于 https://ai.googleblog.com/2018/11/open-sourceing-bert-state-of-art-pre.html Bayern,M.:为全球科技公司培养员工最多的美国十大大学。 TechRepublic于2020年5月21日在CXO召开。 https://www.techrepublic.com/article/top-10大学-that-produce-the-most-staff-for-global-tech-firms/ 早期预警的最新教训:科学、预防、创新(第28章)。 EEA报告1/2013。 http://www.eea.europa.eu/publications/late-lessons-2 国家举报人中心:举报人仍然是发现欺诈的最佳人选。 来自普华永道2007年全球经济犯罪调查。 https://www.whilleblowers.org/news/whillebrowers-still-the-best-at-detecting-fraud/ Loyens,K.,Vandekerckhove,W.:国际检举:制度安排的比较分析。 行政科学,MDPI,出版日期:2018年7月5日。 https://www.researchgate.net/publication/326201433_Whistleblowing_from_an_International_Perspective_A_Comparative_Analysis_of_Institutional_Arangements Benjamin,R.:技术之后的种族:新jim代码的废奴主义工具。 《剑桥政治》(2019) 博丁顿,P.:走向人工智能道德规范。 施普林格,纽约(2017)。 国际标准图书编号978–3–319–60648–4 博斯特罗姆,N.:超级智能:路径、危险、策略。 牛津大学出版社,伦敦(2014)。 国际标准图书编号:9780199678112 Buolamwini,J.,Gebru,T.:性别阴影项目:商业性别分类中的交叉准确性差异。 摘自:公平、问责制和透明度会议,第77-91页(2018年)。 https://www.media.mit.edu/projects/gender-shades/overview/ Coeckelbergh,M.:人工智能伦理。 麻省理工学院出版社,剑桥(2020)ISBN:9780262538190 米特尔斯塔特(Mittelstadt,B.):仅凭原则无法保证道德AI。自然机器智能(Nat Mach Intell) 1 , 501–507 (2019). https://doi.org/10.1038/s42256-019-0114-4 Wachter,S.、Mittelstadt,B.、Floridi,L.:为什么《一般数据保护条例》中不存在自动决策解释权。 国际数据隐私法 7 (2), 76–99 (2017). https://doi.org/10.1093/idpl/ipx005 瓦格纳(Wagner,B.):道德是对监管的逃避。 从“道德清洗”到道德购物? 收录:Emre,B.,Irina,B.,Liisa,J.U.A.(汞):被剖析:Cogitas Ergo Sum。 “塑造欧洲公民形象”十年。 阿姆斯特丹大学出版社,阿姆斯特丹,第84-88页(2018年)。 数字对象标识: https://doi.org/10.25969/mediarep/13281 Schatsky,D.、Katyal V.、Iyengar,S.和Chauhan R.:人工智能能合乎道德吗? 为什么企业不应该等待人工智能监管。 (2019). https://www2.deloitte.com/content/dam/insights/us/articles/4604_S4S-AI-and-ethics/DI_S4S-AI-and-ethics.pdf Karlosson,P.、Turner,M.和Gassmann,P.:接替长期以来在角落办公室任职的传奇人物。 领导力。 (2019).* Dave,P.,Dastin,J.:谷歌告诉其科学家在人工智能研究文档中“敲出积极的基调”。 路透社。 (2020). https://www.reuters.com/article/us-alphabet-google-research-focus-idUSKBN28X1CB Ochigame,M.:“道德人工智能”的发明。《拦截》(2019)。 https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence网站/ Hickok,M.:从人工智能伦理原则中吸取的教训,用于未来行动。 AI伦理(2020)。 https://doi.org/10.1007/s43681-020-00008-1 Hagendorff,T.:人工智能伦理:指南评估。 注意。 机器。 30 , 99–120 (2020). https://doi.org/10.1007/s11023-020-09517-8 Haibe-Kains,B.,Adam,G.A.,Hosny,A.等人:人工智能中的透明度和再现性。 自然 586 , 14–16 (2020). https://doi.org/10.1038/s41586-020-2766-y NeurlPS:第三十四届神经信息处理系统会议。 2020年1月12日查阅。 https://neurips.cc/Conferences/2020/时间表?showEvent=16151 阿卜杜拉,M.,阿卜杜勒,M.:灰色连帽衫项目:大烟草、大科技以及对学术诚信的威胁。 2020年,ArXiv,abs/2009.13676 Stahl,B.、Chatfield,K.、Holter,C.、Brem,A.:企业研发中的伦理:负责任的研究和创新方法能否帮助可持续发展? J.清洁。 生产(2019年)。 https://doi.org/10.1016/j.jclepro.2019.118044 West,S.M.、Whittaker,M.和Crawford,K.:歧视系统:AI中的性别、种族和权力。AI Now Institute。 (2019). https://ainowinstitute.org/discriminatingsystems.html Raji,I.等人:缩小人工智能责任差距:定义内部算法审计的端到端框架。 (2020). https://arxiv.org/abs/2001.00973 Raji,I.,Buolamwini,J.:可操作审计:调查商业人工智能产品公开命名偏差性能结果的影响。 关联计算。 马赫(2019)。 https://doi.org/10.1145/3306618.3314244 坎卡,C.:《操作人工智能伦理原则》。 Commun公司。 ACM公司 63 (12), 18–21 (2020) Metcalf,J.、Moss,E.和Boyd,D.:拥有道德:企业逻辑、硅谷和道德制度化。 社会研究。 86 (2), 449–476 (2019). https://www.muse.chu.edu/article/732185网址 . 希夫·D·、比德尔·J·、博伦斯坦·J·和拉斯·K·:人工智能伦理、政策和治理的下一步是什么? 全球概览。 关联计算。 马赫数(2020)。 https://doi.org/10.1145/3375627.3375804 Eitel-Porter,R.:《超越承诺:实施道德的人工智能》,《人工智能伦理》(2020年)。 https://doi.org/10.1007/s43681-020-00011-6网址 MacDougall,D.:举报和生物伦理学家的公共义务。 外倾角。 Q.健康。 伦理学 23 (4), 431–442 (2014). https://doi.org/10.1017/S0963180114000103 Jobin,A.、Lenca,M.、Vayena,E.:人工智能道德准则的全球景观。 Nat Mach智能 1 , 389–399 (2019) Krijger,J.进入量度:AI伦理的批判理论和组织运作。 出版中 AccessNow:Access Now退出AI合作伙伴关系,2020年10月13日。 https://www.accessnow.org/access-now-resignation-partnership-on-ai/ 人工智能合作伙伴关系:人工智能合作关系汇集了不同的全球声音,以实现人工智能的承诺。 2021年1月12日访问。 https://www.partnershiponai.org/ 欧洲环境署(EEA):早期预警的晚期教训:科学、预防、创新。 欧洲经济区报告。 (2013). https://www.eea.europa.eu/publications/late-lessons-2 Gebru,T.:理解人工智能的局限性:当算法失败时。 Spark+AI峰会(2020年)。 https://databricks.com/session/understanding-the-limitations-of-ai-when-algorithms-fail Gebru,T。 等。 :使用深度学习和谷歌街景来估计美国各地社区的人口构成。 (2017) https://www.pnas.org/content/114/50/13108 Jo,E.和Gebru,T.:档案的教训:机器学习中收集社会文化数据的策略。 (2020). https://dl.acm.org/doi/abs/ https://doi.org/10.1145/3351095.3372829 Smith,P.,Smith(L.):人工智能与残疾:承诺太多,但实质内容太少? AI伦理(2020)。 https://doi.org/10.1007/s43681-020-00004-5 Denton,E.等人:用于检测意外偏差的图像反事实灵敏度分析。 (2020). https://arxiv.org/abs/1906.06439 Denton,E.等人:关于随机鹦鹉的危险:语言模型会不会太大。 (2021). https://factory.washington.edu/ebender/papers/Storachic_Parrots.pdf Schrittwieser,J.等人:MuZero:在没有规则的情况下掌握围棋、国际象棋、shogi和Atari。 (2020). https://deepmind.com/blog/article/muzero-mastering-go-chess-shogi-and-atari-without-rules(https://ceepmind.com博客/article/muszero-masering-go-chss-shogi-anda-tari-without-rules) AlphaFold团队:AlphaFold:50年来生物学重大挑战的解决方案。 (2020). https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology网站 突破性的大脑技术。 (2021). https://neuralink.com/ Sunyaev,S.:分布式账本技术。 (2020). https://link.springer.com/chapter/ https://doi.org/10.1007/978-3-030-34957-8_9 Kendall,T.:关于极端主义主流化的听证会证词:社交媒体在激进主义美国中的作用。 能源与商业(第116届国会)和消费者保护与商业(116届议会)委员会。 (2020). https://energycommerce.house.gov/committee-activity/heerings/heering-on-plameriaming-extremism-social-media-s-role-in-radializing 烟草公司对公众撒谎的罪过。 我戒烟了。 https://stopswihme.com/exposing-big-tobacco/big-tobacco-found-uilty/ W·拉加伯:工业抵制汽车安全成本。 《纽约时报》特刊(1975年)。 https://www.nytimes.com/1975/04/06/archives/industry resists-carsafety-costs-companies-feel-consumers-will.html 纳德:在任何速度下都是不安全的:美国汽车的设计危险。 美国期刊。 健康 101 (2), 254–256 (2011). https://doi.org/10.2105/ajph.101.2.254 数字技术与信任的恢复:上议院民主和数字技术特别委员会。 2019-21届会议报告。 HL论文77。 (2020). https://committees.parliament.uk/publications/1634/documents/17731/default/ 施瓦布(Schwab,K.):“这比Timnit更重要”:谷歌是如何试图让批评家沉默并引发一场运动的。 FastCompany公司。 (2021). https://www.fastcompany.com/90608471/timnit-gebru-google-ai-ethics公平技术移动 Benjamins,R.X.、Barbado,A.和Sierra,D.:实践中设计的负责任人工智能。 摘自:《以人为中心的人工智能:人工智能模型和数据(HAI)的可信度》,2019年哥伦比亚特区秋季研讨会
基金
作者信息
作者和附属机构
通讯作者
道德宣言
利益冲突
其他信息
出版说明
权利和权限
关于本文
引用这篇文章
收到 : 认可的 : 出版 : 发布日期 : 内政部 : https://doi.org/10.1007/s43681-021-00052-5