X(X)
创新

组织正在为人工智能的道德采纳而斗争。以下是您可以帮助的方法

当人工智能的风险大于收益时,组织正在通过制定人工智能政策来保护工人和消费者,从而将这些风险降至最低。
编写人 Allison Murray,员工编剧
两个人看着未来派的屏幕
Bloom Productions/盖蒂图片

作为人工智能在我们的日常生活中变得更加交织这项技术的伦理意义因此,各组织都在倡导人工智能可能对其产生负面影响的工人和消费者,你可以通过各种方式加入到社会道德采纳人工智能的斗争中

众所周知,AI表现出性别和种族偏见,这引起了伦理关注。它还提出了隐私问题,例如使用人工智能进行监视。此外,这项技术还被用来传播错误信息。 

如果使用得当——合乎道德——人工智能可以提高整个社会的水平,并积极推动未来的技术发展。这就是为什么这些组织正在努力消除负面影响,并引导我们朝着正确的方向前进。

此外:生成性人工智能的伦理:我们如何利用这种强大的技术

其中一个非营利组织是人性化,其工作是检查和分析与人工智能和自主系统相关的风险,并在这些系统中进行最大程度的风险缓解。ForHumanity的执行董事兼创始人Ryan Carrier告诉ZDNET,该组织由来自世界各地的志愿者组成。

Carrier表示:“ForHumanity有1600多名来自世界91个国家的员工,我们每个月增加40至60人。”。“志愿者是全方位的消费者、工人、学者、思想领袖、问题解决者、独立审计师等,帮助我们制定可审计的规则,甚至接受一些培训,成为注册审计师。”

ForHumanity社区是100%开放的,对谁可以加入没有限制。你只需在网站上注册并同意行为准则。任何为非营利组织自愿的人都可以根据自己的意愿参与这个过程。

ForHumanity关注的主要内容之一是,通过与ForHumanty志愿者的众包、迭代和协作过程,根据法律、标准和最佳实践,为AI审计师(评估AI系统以确保其按预期工作的人员)创建可审计规则。然后,该组织将这些可审计的规则提交给政府和监管机构。

Carrier表示:“我们提供了这个公平的竞争环境,这个生态系统,在这里我们鼓励审计师、服务提供商、公司人员等使用这些规则,基本上创造出符合不断变化的法律、法规、最佳实践等环境的合规性。”。

到目前为止,ForHumanity已向英国和欧盟政府提交了申请,并接近获得批准的认证方案(或一系列可审计规则),Carrier表示,这将是世界上第一个批准的人工智能和算法系统认证方案。这套规则是确保合规性的最高形式,目前在AI中没有类似的规则。

Carrier表示:“制定的规则旨在减轻人类面临的风险,并为遵守法律提供二元解释。”他补充说,自愿认证计划的影响是,投资于自愿认证计划中的公司将更有把握不违反法律。

Carrier表示:“ForHumanity的使命只关注人类。因此,消费者/用户和员工都将从这些认证计划的实施中受益。”。 

此外:负责任地使用人工智能的五种方法

另一个致力于人工智能研究和政策的组织是人工智能和数字政策中心(CAIDP),专注于建设促进基本权利、民主价值观和法治的人工智能教育。

CAIDP有人工智能政策诊所,有兴趣了解更多人工智能的人可以免费聚集在一起。到目前为止,已有414名学生从这些学习课程中毕业。 

CAIDP主席Merve Hickok告诉ZDNET:“(诊所的)学生管理着律师、从业者、研究人员、社会倡导者等各种各样的人,学习人工智能如何影响权利,离开时掌握技能,倡导如何让政府负责,如何影响人工智能领域的变化。”。

任何人都可以加入这些AI政策诊所,获得CAIDP AI政策认证。有兴趣注册的人可以在CAIDP的网站上注册。诊所持续一个学期,每周需要约六个小时的时间。

希科克说,除了CAIDP的教育部分外,该组织还对咨询方面感兴趣,特别是在保护有关AI的消费者权利方面

希科克说,除了该组织在人权和民主方面的教育工作外,CAIDP还倡导保护AI消费者的权利抱怨联邦贸易委员会(Federal Trade Commission)已就OpenAI展开调查。继CAIDP对OpenAI提出投诉后,世界各地的数据保护和消费者机构都对ChatGPT展开了调查。

也: 6个AI工具,为您的工作和日常生活提供强大动力

“我们要求为人工智能系统设置安全护栏,”希科克补充道。“人工智能系统的部署不应不考虑某些安全、保障和公平措施。消费者和整个社会不应成为试验台,不应进行试验。”

此外,CAIDP关注的另一部分是工人的权利,尤其是在工人监督方面。

“我们向白宫、EEOC和不同机构(关于工人人工智能权利)提交了建议,”希科克说。“因为我们希望员工在如何使用或参与人工智能系统方面有发言权,而不仅仅是受到监视和性能监控等,还受到剥削。”

CAIDP的年度AI和民主价值指数是其工作的一个重要组成部分,它审查了由75个国家细分的全球人工智能政策和实践评估。例如,2022年,加拿大、日本和哥伦比亚等国在AI政策方面排名靠前,而伊朗、越南、委内瑞拉等国得分较低。 

AIDV索引报告图表
人工智能和数字政策中心

报告称:“随着更多系统的部署,世界各国政府正在迅速了解人工智能部署的影响。”。“我们预计未来几年人工智能决策速度将加快。”

CAIDP已经与联邦机构和政府合作。3月,该组织向联邦贸易委员会提交了一份关于OpenAI的全面投诉,要求调查并停止未来车型的部署,直到护栏到位。 

也: 高管需要更好的技术技能。以下是向上教育的六种方法

虽然这两个组织都在做不同的事情来让人工智能承担责任,但当谈到人工智能的未来及其风险时,他们都有相同的担忧。

Carrier表示,它基本上分为五个关注领域:道德风险、偏见、隐私、信任和网络安全。

“这真的取决于用例和其中最大的风险,但通常总是有很多,”他说。“这就是我们做我们所做的事情的原因。”

就人工智能的未来前景而言,这两个组织都相对乐观地认为,将通过法规,控制风险。

Carrier说:“从我们的角度来看,我们希望确保人工智能得到采用,并且通过最大限度地降低每个工具的风险,始终以对人类有益的方式进行人工智能。”。“在一个完美的未来,独立审计人工智能系统对所有人工智能都是强制性的,算法和自主系统将对人类产生有意义的影响。”

编辑标准