主页

提交文件

提交指南和编辑政策

作者指南

审查人指南

动作编辑器指南

道德准则

行为准则

编辑委员会

联系人

常见问题

TMLR公司道德准则

改编自NeurIPS公司道德准则

介绍

随着ML研究和应用对现实世界的影响越来越大有意义的社会利益增加了,随之而来的伤害风险也增加了。事实上,数据问题隐私、算法偏差、自动化风险和人工智能的潜在恶意使用都有详细记录[1].

根据这些发现,机器学习(ML)研究人员不能再“简单地假设。。。研究将对世界产生净积极影响[2]。研究社区应考虑不仅潜在的好处,而且潜在的ML研究的负面影响并采取积极措施在减轻伤害风险的同时,发展轨迹。我们希望作者讨论这样的道德和社会他们在论文中的工作结果,同时避免过度猜测。

本文档应由作者和审阅者使用 就道德准则建立共识。主要评审员进行更广泛影响关注点评估的目的是批评的反馈供作者合并以改进论文。在极少数情况下,然而,TMLR保留以下权利拒绝违反关键道德原则的提交文件。

道德有两个方面需要考虑:潜在的负面社会影响(第2节)和一般道德行为(第3节)。

潜在的负面社会影响

向TMLR提交的文件在适用时,预计包括关于潜在的负面社会影响 建议的研究工件或应用。无论何时提交的文件还应包括关于如何减轻这些风险的讨论。

与道德斗争是该领域的一个难题,思考道德对许多作者来说还是比较新的。鉴于其争议性,我们选择强调透明度。在某些情况下,它不会有可能在伦理研究和非伦理研究之间划出一条清晰的界线。因此,一篇论文应该讨论任何潜在问题,欢迎整个社区参与更广泛的讨论。

评估道德影响的一个常见困难是间接性:大多数论文侧重于通用方法(例如,优化算法),而在考虑部署时,道德问题更为明显应用程序(例如,监控系统)。此外,现实世界的影响(积极和消极)通常由于许多论文的累积进展,因此很难将影响归因于个人论文。

论文的道德后果可能源于方法学应用在方法论方面,例如对抗性攻击可能会给恶意实体带来不平衡的力量;在这种情况下,辩护和其他正如计算机安全中的标准一样,应该采取缓解策略。在应用程序方面,在在某些情况下,应用程序的选择是论文核心贡献的附带因素有害的应用程序应该被替换掉(作为一个极端的例子,将种族分类替换为鸟类分类),但仍应注意潜在的误用。在其他情况下,核心贡献可能与有问题的应用程序分不开(例如,重建给定的脸演讲)。在这种情况下,人们应该批判地审视科学(和道德)是否真的值得超过潜在的道德危害。

下面列出了潜在负面社会影响的详尽清单。考虑建议的方法和应用程序是否可以:

  1. 直接促进对生物的伤害例如:它可以集成到武器或武器系统中吗?
  2. 提出安全或安保问题.例如:应用程序是否存在导致严重事故或开放安全的风险在真实环境中部署漏洞?
  3. 提出人权关切。对于例如:这项技术会被用来歧视、排斥或以其他方式对人们产生负面影响吗,包括对提供重要服务的影响,如医疗和教育,或限制访问就业机会?请咨询多伦多宣言了解更多详细信息。
  4. 对民生产生不利影响或经济安全例如:对人们的工作中的自主权、尊严或隐私,或威胁他们的经济安全(例如,通过自动化或扰乱行业)?它是否可以用于加强工人监督,或施加条件对员工的健康和安全构成风险?
  5. 发展或扩大有害的监视形式例如:它是否可用于收集或分析大量监测数据以进行预测移民身份或其他受保护类别,或用于任何形式的犯罪定性?
  6. 严重破坏环境.例如:该应用程序是否会激励严重的环境危害,如森林砍伐,化石燃料开采还是污染?
  7. 以造成伤害的方式欺骗他人例如:该方法是否可用于促进可能会造成盗窃、欺诈或骚扰等伤害?它可以用来模仿公众人物影响政治进程,还是作为仇恨言论或虐待的工具?

一般道德行为

提交材料必须遵守负责任的研究实践和行为上的尽职调查。

如果研究使用的是人工数据,请考虑该数据是否可能:

  1. 包含任何个人身份信息或敏感信息个人身份信息例如,数据集是否使用个人姓名的特征或标签信息?人们是否同意收集这样的数据?数据的使用会让一些人感到丢脸或尴尬吗?
  2. 包含可以推断出的个人信息他们还没有同意分享。例如推荐系统可能会无意中泄露用户信息,例如他们的姓名,这取决于提供的功能。
  3. 编码、包含或可能加剧对人的偏见特定性别、种族、性取向或具有其他受保护特征的人例如,数据集是否代表社区的多样性打算部署方法?
  4. 包含人体实验以及是否经相关监督委员会审查和批准例如,研究根据人类数据预测特征(例如,健康状况)(例如,与感染者的接触新型冠状病毒肺炎)的研究预计将由伦理委员会审查。
  5. 被创作者们抹黑了。例如,DukeMTMC-ReID数据集已被删除,不应被删除用于TMLR提交文件。

总的来说,还有其他与数据相关的问题值得审议和审查。其中包括:

  1. 同意使用或共享数据.解释您是否已请求数据所有者允许使用或共享数据,以及结果是。即使你没有得到同意,也要解释为什么这可能适合道德规范立场。例如,如果数据是从公共论坛收集的,其用户是否被要求同意使用他们生成的数据,如果没有,为什么?
  2. 处理高风险时的特定领域注意事项例如,如果研究涉及与未成年人或弱势群体合作成年人,相关安全措施是否到位?
  3. 过滤攻击性内容。对于例如,在收集数据集时,作者如何过滤冒犯性内容,如种族主义语言还是暴力意象?
  4. 符合GDPR和其他数据相关要求法规例如,如果作者收集人类衍生数据保障个人被遗忘权利的机制(从数据集中删除)?

此列表并非详尽无遗-此处包含此列表作为提示供作者和审稿人思考。

最后备注

总之,我们希望TMLR提交的文件包括关于潜在风险的讨论使用拟议方法产生的危害、恶意使用和其他潜在道德问题,或应用程序。我们还希望作者能够讨论缓解此类风险的方法。此外,作者在处理数据时应遵循最佳实践。无论何时存在与建议的方法、方法、应用或数据收集和数据使用,作者应详细说明其决定的理由和潜在的缓解措施。提交的文件也将进行评估就这种伦理反思的深度而言。

工具书类

[1] J.Whittlestone、R.Nyrup、A.Alexandrova、K.Dihal和S.Cave。(2019)伦理的以及算法、数据和人工智能的社会影响:研究伦敦:努菲尔德基金会。

[2] B.Hecht、L.Wilcox、J.P.Bigham、J.Schoning、E.Hoque、J.Ernst、Y.Bisk、L。De Russis、L.Yarosh、B.Anjam、D.Contractor和C.Wu。(2018)它是该做点什么了:通过改变同行评审来减轻计算的负面影响过程ACM计算博客的未来。

NeurIPS道德准则由Samy Bengio、Kate Crawford、Jeanne编制Fromer、Iason Gabriel、Amanda Leventuski、Deborah Raji和Marc’Aurelio Ranzato,以及NeurIPS 2021项目主席Alina Beygelzimer、Yann Dauphin、Percy Liang和Jenn Wortman的反馈沃恩。

©TMLR公司2022.