欧洲委员会人工智能特设委员会关于人工智能的可行性研究

2020年12月17日人工智能特设委员会(CAHAI)的欧洲委员会(CoE)采用了他们的第一个基于欧洲委员会标准的人工智能设计、开发和应用法律框架可行性研究.

2019年9月11日,“部长委员会授权成立人工智能特设委员会(CAHAI)根据欧洲委员会在人权、民主和法治领域的标准,在多方利益相关者广泛协商的基础上,审查人工智能开发、设计和应用法律框架的可行性和潜在要素”。 

可行性研究基于欧洲委员会制定的标准,在CAHAI第3次全体会议从15日开始持有第个至17第个在“深入讨论”后于2020年12月发布。在这次活动中,“200多名成员、与会者和观察员在线会面,讨论人工智能法律文书的可行性研究”。 

该研究考虑到了“在人权、民主和法治领域设计、开发和应用人工智能的标准,以及现有的相关国际、全球和区域法律文书。”委员会领导的“欧洲委员会人工智能法律框架的适用范围”,在提供一些旨在构建未来CoE关于人工智能的法律文书的一般原则之前,从缺乏人工智能的共同定义到其潜在的实质利益,以及它所构成的威胁,进行一般性观察。 

1.缺乏人工智能的通用定义

首先,CoE强调“科学界不接受人工智能的单一定义”。第二,甚至“从事人工智能研究的各个国际组织也没有就人工智能的定义达成共识。”因此,一些国际组织试图对人工智能进行全球通用的定义,但毫无结果。例如,由欧盟委员会(EC)授权的人工智能高级专家组发布了一份人工智能定义的综合文件2019年4月。然而,“就欧洲委员会就这一主题发布的非约束性文书而言,迄今为止尚未使用统一的人工智能定义。”事实上,CAHAI已经审查了其工作中使用的大多数定义和概念以及可能适用于人工智能的文书,同时强调其局限性和弱点。CAHAI发现“可以得出结论,“AI”一词被用作基于不同技术的各种计算机应用程序的“总括术语”,这些应用程序通常表现出与人类智能相关的能力。”

[]CAHAI的成员、参与者和观察员也指出了不同法律传统和文化对人工智能定义的不同方法,在以下方面达成了共识需要以技术中立的方式接近人工智能系统(…)方式,包括属于这个总括术语的所有各种自动决策技术包括更广泛的社会技术背景。”

根据CAHAI,这一“总括术语”应该能够在“从技术角度来看可能过于精确并因此在短期内可能过时的定义与过于模糊并因此留下广泛解释余地的定义之间取得平衡,这可能导致法律框架的不统一适用”。从这个意义上说,可行性研究依赖于“宽泛的定义(……),以确保充分识别人工智能系统的开发和使用所带来的挑战的多样性”

2.人工智能的机会、收益和风险

可行性研究强调,“人工智能系统可以促进和加强人权(……),并有助于有效应用和执行人权标准”。例如,该研究强调了人工智能系统如何“对人类健康和医疗保健系统产生潜在影响”,从而改进医疗诊断和治疗,同时加强流行病和慢性病的高级预测和监测。此外,值得注意的是,人工智能“使用责任,(……)也可以加强法治和民主”(第20条),例如通过促进检测有偏见的决策。 

然而,需要强调的是,尽管“有这些好处,但在私人和公共生活的所有领域越来越多地使用人工智能系统,也对人权、民主和法治带来了重大挑战”(第21条):

“基于人工智能的跟踪技术可以广泛影响“一般”隐私、身份和自主性,并且可以持续监视、跟踪、识别和影响个人(……)因此,人们可能会倾向于使自己的行为适应某种规范,这反过来也会引发使用跟踪和监视技术的国家或私人组织与被跟踪(群体)个人之间的权力平衡问题。”

3.CAHAI的法律框架观点

为了应对和减轻这些风险,CAHAI“建议未来的欧洲委员会人工智能法律框架应针对特定应用环境采取基于风险的方法”。此外,CAHAI指出:

  • 一方面,“应当促进促进、加强和加强保护人权、民主和法治的人工智能应用”。 
  • 另一方面,“如果基于针对具体情况的风险评估研究发现,人工智能应用程序可以“重大”或未知风险对于人权、民主或法治,以及现有法律框架内没有适当的缓解措施来充分缓解这些风险,各国应考虑引入额外的监管措施对应用程序的特殊和受控使用的其他限制,以及必要时的禁令或暂停(红线)”. 

CAHAI特别解释说,“建立一个关于有问题的人工智能使用和红线的国际协议对于预测竞争劣势的反对意见以及为人工智能开发人员和部署人员创造一个明确公平的竞争环境至关重要”。例如,“可能属于红线范围的应用程序是远程生物识别系统——或其他支持人工智能的跟踪应用程序”,因为这些系统可能导致“大规模监视或社交评分”,或支持人工智能对个人进行秘密操纵。

  • 最后,“如果人工智能系统的某些应用不会对人权、民主或法治造成任何风险,则应免除任何其他监管措施”。

4.欧洲委员会迄今为止在人工智能领域的工作和国际法律文书测绘

CAHAI对AI法律文书的可行性研究不仅基于“深入讨论”与不同的多个决策者合作,还绘制了一张地图,该地图分析了所有之前关于CoE的AI相关工作。其中包括对当前适用于AI的国际法律文书和道德准则的深入研究,以及对相关国家政策的概述,CAHAI成员制定的工具和策略。

事实上,CAHAI强调,“信息技术对人权、民主和法治的重大影响已经导致欧洲委员会发展相关的约束和非约束机制,这些机制相互补充和加强”。可行性研究回顾了之前的工作“以及欧洲人权法院关于新技术的判例法”。 

该研究还概述了现有国际法律文书和人工智能道德准则的“优缺点和局限性”。虽然承认这些文件“与人工智能法规相关”,但“CAHAI也支持分析中得出的结论是,这些工具并不总能为人工智能系统提出的挑战提供足够的保障”。因此,该研究强调,“越来越需要一个更全面、更有效的治理框架,以应对大赦国际提出的新挑战和机遇,许多政府间行动者已经承认了这一点”。由于大多数这些文书都是非约束性建议,CAHAI强调,第一个值得注意的、很快就会出现的欧盟委员会“解决与确保可信赖人工智能(……)相关的基本权利挑战的立法提案计划于2021年第一季度发表。”同时,CAHAI提出了人工智能设计、开发和应用法律框架的主要内容。

5.人工智能设计、开发和应用法律框架的主要要素

在第7章中,CAHAI根据其任务规定回顾道,“关于人工智能的法律框架应确保该技术的设计、开发和应用基于欧洲委员会关于人权、民主和法治的标准”。此外,遵循基于风险的方法,人工智能的法律框架“应提供一个有利的监管环境,使有益的人工智能创新能够蓬勃发展,同时解决第3章规定的风险,以及第5章确定的实质性和程序性法律漏洞,以确保其在现有文书中的相关性和有效性”。CAHAI确立并被视为“基本”的主要原则如下:

  • 人的尊严
  • 防止对人权、民主和法治的损害
  • 人的自由与人的自主
  • 非歧视、两性平等、公平和多样性
  • 人工智能系统的透明性和可解释性原则
  • 数据保护和隐私权
  • 问责制和责任
  • 民主
  • 法治

对于这些原则中的每一项,研究报告都简要描述了所涉的“关键实质性权利”以及由此产生的“关键义务”。可行性研究还解决了“成员国和私人行为者在开发符合这些要求的应用程序中的作用和责任”问题,以及AI“造成损害的责任”问题,该研究概述了CoE为AI的设计、开发和应用创建法律框架时可用的选项

“为了填补第5章中确定的法律保护方面的空白,法律框架有许多不同的选择在欧洲委员会内部,包括有约束力和无约束力的法律文书.”

法律文书可以包括现有具有约束力的法律文书的现代化以及通过一项新的具有约束力的文书。还可以选择某些不具约束力的法律选项,以及为会员国提供其他类型的支持,例如确定最佳做法。然而,根据他们的结论,“适当的法律框架可能由具有约束力和不具有约束力的法律文书组成,它们相辅相成”。

在结论意见中,CAHAI声称“[t]他的研究证实,人工智能系统可以为个人和社会发展以及人权、民主和法治提供重大机会。与此同时,它还确认,人工智能系统可能对《欧洲人权公约》和欧洲委员会其他文书所保护的若干人权以及民主和法治产生负面影响。” 

“该研究指出,不存在专门针对人工智能带来的挑战的国际法律文书,现有国际和国家文书提供的保护水平存在差距。该研究确定了可能成为人工智能主要要素的原则、权利和义务基于欧洲委员会标准的人工智能设计、开发和应用的未来法律框架,由CAHAI负责制定。”(§176)

通过的可行性研究“将于2021年提交欧洲委员会部长委员会”。与此同时,特设委员会将继续促进“基于人权、法治和民主的人工智能应用”。为此,2021年1月20日欧洲委员会人工智能特设委员会(CAHAI)Gregor Strojin将在即将举行的在线会议上强调CAHAI的结论”人工智能时代的人权——欧洲成为国际人工智能标准制定者”.

“会议将讨论人工智能对人权、民主和法治的影响以及未来人工智能法律框架的可行性等问题。”

喜欢这篇文章吗?
在Facebook上共享
在推特上分享
在Linkdin上共享
通过电子邮件共享