为开源AI操作SAFE-D原则

的一部分深度潜水:AI网络研讨会系列

SAFE-D原则(Leslie,2019)由英国国家数据科学和人工智能研究所Alan Turing Institute制定。它们已在图灵研究伦理(TREx)机构审查过程中投入使用。在本专题讨论会中,我们将倡导对开源人工智能的定义,包括对每一项原则的反思,并介绍人工智能项目如何将这些规范价值融入其工作交付中的案例研究。

SAFE-D方法基于以下五个规范性目标:

***安全与可持续**确保负责任地开发、部署和使用数据密集型系统。从技术角度来看,这要求系统安全、健壮和可靠。从社会可持续性的角度来看,这要求通过持续考虑受影响权利持有人遭受损害的风险、持续反思项目背景和影响、持续利益相关者参与和参与,告知系统生产和使用背后的数据实践,并将系统的监控从部署到退役或取消。
*我们的建议是:开源人工智能必须是安全和可持续的,开放的工作方式确保“多眼看,所有的错误都是肤浅的”。在整个AI工作流中有一个广泛参与的社区,可以使基础设施更加安全,并使工作目的与受影响利益相关者的需求保持一致。
***问责制**可以包括补救机制可能需要的特定形式的流程透明度(例如,通过流程日志或外部审计制定),或更广泛的负责任治理过程,寻求在透明度可能不合适的情况下建立明确的责任角色(例如机密项目)。
*我们的建议:开源人工智能应该有明确的责任文档和提出关注的过程。这些已经是开源社区的常见做法,包括通过行为准则和请求对扩展或破坏性更改发表评论。
***公平和不歧视**与公平和正义的社会法律概念密不可分,这些概念可能强调各种特征,例如通过减少偏见实现公平结果或程序公平,但也强调社会和经济平等、多样性和包容性。
*我们的建议:开源人工智能应该清楚地传达人工智能模型和工作流程是如何考虑公平和正义的。我们希望开源人工智能社区将现有的偏见报告工具嵌入到一个可互操作的开源人工智能生态系统中。
***在数据处理与人类的判断和决策相互作用或影响的情况下,可解释性和透明度**是自主和知情决策的关键条件。可解释性超越了仅仅解释数据密集型系统结果的能力;它还取决于提供有关结果背后过程的可访问和相关信息库的能力。
*我们的建议:开源人工智能应该建立在强大的透明历史之上,这是开源定义的基础:访问源代码、数据和文档。我们相信,当前的开源工作方式将提高整个人工智能生态系统的透明度和可解释性。
***必须建立数据质量、完整性、保护和隐私**,以确保数据密集型系统和模型是在安全的基础上开发的。
*我们的建议:即使在数据无法公开提供的情况下,数据的收集和使用也要有问责制和透明度。

会议议程如下:

1.David Leslie教授将概述SAFE-D原则。
2.关颖珊(Victoria Kwan)将介绍如何将SAFE-D原则应用于机构审查过程。
3.Kirstie Whitaker博士将提出如何通过共享开源人工智能的定义来调整机构流程以实现分散采用。

最后20分钟是一个小组,回答观众的问题和评论。

网络研讨会摘要

在这个由开源倡议组织主办的网络研讨会上,作为“深度探索:定义开源人工智能”系列的一部分,柯斯蒂·惠特克、阿兰·图灵研究所的大卫·莱斯利教授和维多利亚·关讨论了在开源实践的背景下,人工智能研究和开发中安全原则的操作化。Leslie介绍了安全、问责、公平、可解释性和数据管理(SAFE-D)的安全原则,并解释了它们在确保负责任和值得信赖的人工智能开发方面的重要性。然后,关颖珊展示了如何将这些原则整合到图灵的研究伦理(TREx)机构审查过程中,强调利益相关者的参与、责任、公平等。惠特克最后强调了开源实践与安全原则的一致性,强调了开源人工智能社区内透明度、问责制、多样性和数据管理的重要性,同时倡导建立一个更具包容性、责任感和互联性的生态系统。

[发布press_authors_box]