索引 
 上一个 
 下一步 
 全文 
程序:2015/2103(印度)
全体会议的文件阶段
所选文档:A8-0005/2017年

表格文本:

A8-0005/2017年

辩论:

PV 2017年2月15日-14
CRE 2017年2月15日-14

投票:

PV 2017年2月16日-6.9
投票解释

采用的文本:

P8_TA(2017)0051

采用的文本
PDF格式25.3万单词7.4万
2017年2月16日,星期四-斯特拉斯堡
机器人民法规则
P8_TA(2017)0051A8-0005/2017年
分辨率
 附件

欧洲议会2017年2月16日决议及向机器人民法规则委员会提出的建议(2015/2103(印度))

欧洲议会,

-考虑到《欧盟运作条约》第225条,

–考虑到理事会指令85/374/EEC(1),

-考虑到代表议会科学和技术选项评估(STOA)小组进行的网络物理系统伦理方面的研究,该研究由欧洲议会研究服务部科学预见股(STOA)管理;

–考虑到议事规则第46条和第52条,

-考虑到法律事务委员会的报告以及运输和旅游委员会、公民自由、司法和内政委员会、就业和社会事务委员会、环境、公共卫生和食品安全委员会、工业委员会的意见,研究与能源以及内部市场和消费者保护委员会(A8-0005/2017年),

介绍

答:从玛丽·雪莱(Mary Shelley)的《弗兰肯斯坦的怪物》(Frankenstein’s Monster)到皮格马利翁(Pygmalion)的经典神话,从布拉格的魔像(Golem)到创造这个词的卡雷尔·卡佩克(Karel Joapek)的机器人,人们一直幻想着建造智能机器的可能性,而通常情况下,建造具有人类特征的机器人是不可能的;

B.然而,现在人类正站在一个时代的门槛上,越来越复杂的机器人、机器人、机器人和其他人工智能(“AI”)表现形式似乎正准备发动一场新的工业革命,这场革命很可能会让任何社会阶层都受到影响,立法机构在不扼杀创新的前提下,考虑其法律和道德影响至关重要;

C.然而,需要创建一个普遍接受的机器人和AI定义,该定义灵活且不妨碍创新;

D.而2010年至2014年间,机器人销售额的平均年增长率为17%,2014年销售额增长了29%,这是有史以来最高的同比增长率,其中汽车零部件供应商和电气/电子行业是增长的主要驱动力;而机器人技术的年度专利申请量在过去十年中增长了三倍;

然而,在过去200年中,由于技术的发展,就业数字一直在增加;而机器人技术和人工智能的发展可能有潜力改变生活和工作实践,提高效率、节约和安全水平,提供更高水平的服务;然而,从中短期来看,机器人技术和人工智能承诺不仅在生产和商业领域,而且在运输、医疗、救援、教育和农业等领域带来效率和节约的好处,同时避免人类暴露在危险条件下,例如清理有毒污染场所时面临的问题;

F.而老龄化是生活条件和现代医学进步导致预期寿命延长的结果,是21世纪欧洲社会面临的最大政治、社会和经济挑战之一;然而,到2025年,超过20%的欧洲人将年满65岁或65岁以上,80岁或80岁以上的人数将急剧增加,这将导致我们社会各代人之间的平衡发生根本性的变化,鉴于老年人尽可能长时间保持健康和活跃是符合社会利益的;

G.然而,从长远来看,当前的趋势倾向于开发智能和自主机器,这些机器具有接受培训和独立决策的能力,不仅具有经济优势,而且对其对整个社会的直接和间接影响也有各种担忧;

H.然而,机器学习极大地提高了分析数据的能力,为社会带来了巨大的经济和创新效益,同时也提出了确保决策过程中不歧视、正当程序、透明度和可理解性的挑战;

I.同样,需要评估机器人技术和机器学习对经济变化和就业的影响;然而,尽管机器人技术具有不可否认的优势,但它的实施可能会带来劳动力市场的变革,并需要相应地反思教育、就业和社会政策的未来;

虽然机器人的广泛使用可能不会自动导致工作更换,但劳动密集型行业的低技能工作可能更容易受到自动化的影响;然而,这一趋势可能会将生产流程带回欧盟;然而研究表明,在使用电脑较多的职业中,就业增长明显更快;而工作自动化有可能将人们从单调的体力劳动中解放出来,使他们能够转向更有创意和更有意义的任务;而自动化要求政府投资于教育和其他改革,以改善未来工人所需技能类型的重新分配;

K.然而,面对日益加剧的社会分裂和不断缩小的中产阶级,重要的是要记住,发展机器人可能会导致财富和影响力高度集中在少数人手中;

L.然而,机器人和人工智能的发展必将影响工作场所的景观,这可能会产生新的责任担忧并消除其他担忧;而在紧急情况或问题发生时,法律责任需要从商业视觉模式和工人设计模式两方面明确;

M.而自动化的趋势要求那些参与人工智能应用程序开发和商业化的人从一开始就建立在安全和道德方面,从而认识到他们必须准备好接受对其生产的技术质量的法律责任;

N.鉴于欧洲议会和理事会第2016/679号法规(EU)(2)(《一般数据保护条例》)规定了保护个人数据的法律框架;尽管数据访问和个人数据和隐私保护的其他方面可能仍需要解决,因为在没有人为干预的情况下,应用程序和设备之间以及与数据库之间的通信可能仍然会引起隐私问题;

O.然而,机器人和人工智能的发展可以而且应该以这样一种方式进行设计,即维护个人的尊严、自主性和自决权,特别是在人类护理和陪伴领域,以及在医疗器械方面,“修复”或增强人的能力;

然而,从长远来看,人工智能最终有可能超越人类的智能能力;

Q.然而,自动化和算法决策的进一步发展和增加无疑会影响个人(如企业或互联网用户)和行政、司法或其他公共当局在做出消费者、企业或权威性质的最终决策时的选择;然而,需要在自动化和算法决策过程中加入保障措施以及人为控制和验证的可能性;

鉴于美国、日本、中国和韩国等几个外国司法管辖区正在考虑并在一定程度上已经采取了机器人和人工智能方面的监管行动,一些会员国也开始考虑是否可能制定法律标准或进行立法修改,以考虑到此类技术的新应用;

而欧洲工业可以从欧盟层面的高效、一致和透明的监管方法中获益,提供可预测且足够明确的条件,使企业可以在欧洲范围内开发应用程序并规划其商业模式,同时确保欧盟及其成员国对即将制定的监管标准保持控制,以免被迫采用他人制定的标准,也就是说,第三国也是机器人和人工智能发展的前沿;

一般原则

T.而阿西莫夫定律(3)必须被视为针对机器人的设计者、生产者和操作者,包括具有内置自主性和自学习能力的机器人,因为这些法律无法转换为机器代码;

然而,一系列规则,特别是关于责任、透明度和问责制的规则是有用的,反映了欧洲对社会贡献的内在欧洲和普遍人文价值观是必要的;然而,这些规则不得影响机器人的研究、创新和发展过程;

五、鉴于欧盟在建立机器人和人工智能的开发、编程和使用中应遵守的基本道德原则以及将这些原则纳入欧盟法规和行为准则方面可以发挥重要作用,旨在塑造技术革命,使其为人类服务,并广泛分享先进机器人和人工智能的好处,同时尽可能避免潜在的陷阱;

W.鉴于本决议附有一份机器人宪章,该宪章是在欧洲议会研究服务局科学预见股(STOA)的协助下起草的,该研究机构提出了机器人工程师的道德行为准则、研究道德委员会的准则、设计师的“许可证”和用户的“许可”;

十、而Jean Monnet所倡导的渐进、务实和谨慎的方法(4)应为欧盟采纳机器人和人工智能方面的未来举措,以确保我们不会扼杀创新;

Y.然而,鉴于机器人技术和人工智能发展所处的阶段,从民事责任问题开始是合适的;

责任

然而,得益于过去十年令人印象深刻的技术进步,今天的机器人不仅能够执行过去典型且仅限于人类的活动,但某些自主和认知特征的发展,例如从经验中学习和做出准独立决策的能力,使得它们越来越类似于与环境交互并能够显著改变环境的主体;然而,在这种情况下,机器人有害行为产生的法律责任成为一个关键问题;

AA。而机器人的自主性可以定义为独立于外部控制或影响,在外部世界做出决策并实施决策的能力;然而,这种自主性是纯技术性质的,其程度取决于机器人与其环境的交互设计的复杂程度;

AB。虽然机器人的自主性越强,但在其他参与者(如制造商、操作员、所有者、用户等)手中,它们就越不被视为简单的工具;而这反过来又,关于责任的普通规则是否足够,或者是否需要新的原则和规则来明确不同行为体对机器人的作为和不作为的法律责任(原因无法追溯到特定的人类行为体),以及机器人的作为或不作为是否造成的伤害本可以避免;

然而,最终,机器人的自主性根据现有的法律类别提出了其性质的问题,或者是否应创建一个新的类别,并具有其自身的具体特征和含义;

然而,根据目前的法律框架,机器人本身不能对给第三方造成损害的行为或疏忽承担责任;而现有的责任规则涵盖了机器人的作为或不作为的原因可以追溯到特定的人类代理人,如制造商、操作员、所有者或用户,并且该代理人本可以预见并避免机器人的有害行为的情况;此外,制造商、运营商、所有者或用户可能会对机器人的行为或疏忽承担严格责任;

AE。而根据目前的产品责任法律框架——产品的生产者对故障负有责任——以及管理有害行为责任的规则——产品的用户对导致伤害的行为负有责任——适用于机器人或人工智能造成的损害;

AF。而在机器人可以自主决策的情况下,传统规则不足以对机器人造成的损害承担法律责任,因为它们无法确定负责提供赔偿的一方,也无法要求该方弥补其造成的损害;

然而,当前法律框架的缺陷在合同责任领域也很明显,因为机器设计用于选择对应方、谈判合同条款、签订合同并决定是否以及如何执行合同,使得传统规则不适用;然而,这突出了对新的、高效的和最新的产品的需求,这些产品应符合最近出现并在市场上使用的技术发展和创新;

啊。然而,关于非牵引责任,指令85/374/EEC只能涵盖机器人制造缺陷造成的损坏,前提是伤者能够证明实际损坏、产品缺陷以及损坏和缺陷之间的因果关系,因此,严格责任或无过错责任框架可能是不够的;

AI.然而,尽管指令85/374/EEC的范围有所规定,但目前的法律框架不足以涵盖新一代机器人所造成的损害,因为它们可以配备适应能力和学习能力,从而导致其行为具有一定程度的不可预测性,因为这些机器人将自主地从自己的可变经验中学习,并以独特和不可预见的方式与环境交互;

民用机器人和人工智能发展的一般原则

1.呼吁委员会考虑到智能机器人的以下特征,提出欧盟对网络物理系统、自治系统、智能自治机器人及其子类别的共同定义:
   通过传感器和/或与环境交换数据(互联性)获得自主性,并对这些数据进行交易和分析;
   通过经验和互动自我学习(可选标准);
   至少有轻微的身体支持;
   其行为和行动适应环境;
   生物意义上的生命缺失;

2.认为应在与特定类别机器人相关且必要的欧盟内部市场引入先进机器人综合注册系统,并呼吁欧盟委员会制定需要注册的机器人分类标准;在这方面,呼吁委员会调查注册系统和注册由指定的欧盟机器人和人工智能机构管理是否可取;

3.强调机器人技术的发展应侧重于补充人类能力,而不是取代人类能力;认为在机器人和人工智能的发展中,确保人类始终能够控制智能机器至关重要;认为应特别关注人与机器人之间情感联系的可能发展,尤其是弱势群体(儿童、老人和残疾人)——并强调了这种情感依恋可能对人类产生的严重情感或身体影响所引发的问题;

4.强调联盟层面的方法可以通过避免内部市场的分裂促进发展,同时强调在机器人和机器人系统的跨境使用中相互承认原则的重要性;忆及测试、认证和市场批准只应在一个会员国进行;强调这种方法应伴随有效的市场监督;

5.强调必须采取措施,帮助机器人行业的中小型企业和初创企业在该行业创造新的细分市场或利用机器人;

研究和创新

6.强调许多机器人应用仍处于试验阶段;欢迎会员国和欧盟正在资助越来越多的研究项目;认为欧盟与成员国通过公共资金保持机器人和人工智能研究的领先地位至关重要;呼吁委员会和成员国加强机器人和信息通信技术研究项目的金融工具,包括公私伙伴关系,并在其研究政策中落实开放科学和负责任的道德创新原则;强调需要投入足够的资源,以寻求解决技术发展及其应用带来的社会、道德、法律和经济挑战的方法;

7.吁请委员会和会员国促进研究方案,鼓励对机器人和人工智能技术可能存在的长期风险和机遇进行研究,并鼓励尽快就开发这些技术的后果发起有组织的公众对话;呼吁委员会增加对《地平线2020》资助的SPARC项目多年度财务框架中期审查的支持;呼吁委员会和成员国共同努力,在按照预防原则进行适当的安全评估后,仔细监测并保证这些技术从研究到商业化和市场使用的平稳过渡;

8.强调机器人技术和人工智能的创新以及机器人技术和AI技术在经济和社会中的融合需要提供无处不在的连通性的数字基础设施;呼吁委员会制定一个框架,以满足欧盟数字未来的连通性要求,并确保宽带和5G网络的接入完全符合网络中立原则;

9.坚信基于安全和隐私的系统、设备和云服务之间的互操作性对于实时数据流至关重要,使机器人和人工智能变得更加灵活和自主;请委员会促进开放环境,从开放标准和创新许可模式,到开放平台和透明度,以避免锁定限制互操作性的专有系统;

伦理原则

10.注意到通过使用机器人赋予权力的潜力因一系列紧张局势或风险而有所不同,应从人类安全、健康和保障的角度进行认真评估;自由、隐私、正直和尊严;自决和非歧视,以及个人数据保护;

11.认为应根据机器人技术的复杂性及其对社会、医疗和生物伦理的诸多影响,通过指导道德原则,酌情更新和补充欧盟现有法律框架;认为需要为机器人的开发、设计、生产、使用和改造制定一个明确、严格和有效的指导道德框架,以补充报告以及现有国家和联盟的法律建议获取; 在决议附件中,提出了一个宪章形式的框架,其中包括机器人工程师行为准则、审查机器人协议时研究伦理委员会的准则以及设计师和用户的示范许可证;

12.强调透明度原则,即应始终能够提供在人工智能协助下做出的任何可能对一人或多人的生活产生实质性影响的决策背后的理由;认为必须始终有可能将人工智能系统的计算减少到人类可以理解的形式;认为先进的机器人应该配备一个“黑匣子”,用于记录机器执行的每个事务的数据,包括促成其决策的逻辑;

13.指出指导性道德框架应以仁慈、无害、自治和正义的原则为基础,以《欧洲联盟条约》第2条和《基本权利宪章》所载的原则和价值观为基础,如人的尊严、平等、正义和公平、不歧视、,知情同意、私人和家庭生活和数据保护,以及欧盟法律的其他基本原则和价值观,如非国家化、透明度、自治、个人责任和社会责任,以及现有道德实践和准则;

14.认为应特别注意对保密性构成重大威胁的机器人,因为它们位于传统上受保护的私人领域,并且能够提取和发送个人和敏感数据;

欧洲机构

15.认为有必要加强成员国与欧盟委员会之间的合作,以确保欧盟内一致的跨境规则,鼓励欧洲工业之间的合作并允许在整个欧盟内部署符合所需安全和安保水平的机器人,以及联邦法律中所载的道德原则;

16.请委员会考虑指定一个欧洲机器人和人工智能机构,以提供所需的技术、道德和监管专门知识,支持欧盟和成员国一级的相关公共行为体努力确保及时、,以道德和知情的方式应对机器人技术发展带来的新机遇和挑战,特别是跨界机遇和挑战(如运输部门的机器人技术发展);

17.认为机器人使用的潜力和与机器人使用相关的问题以及当前的投资动态,有理由为欧洲机构提供适当的预算,并为其配备专门负责机器人应用跨部门和多学科监测的监管机构和外部技术和道德专家,确定最佳实践标准,并酌情建议监管措施,确定新原则,解决潜在的消费者保护问题和系统挑战;要求委员会(以及欧洲机构,如果成立)向欧洲议会报告机器人技术的最新发展以及每年需要采取的任何行动;

知识产权和数据流

18.注意到没有专门适用于机器人技术的法律规定,但现有的法律制度和理论可以很容易地适用于机器人,尽管有些方面似乎需要具体考虑;呼吁委员会支持对可使用机器人的各个部门的知识产权采取横向和技术中立的做法;

19.呼吁委员会和成员国确保机器人行业的民法条例符合《一般数据保护条例》,并符合必要性和相称性原则;呼吁委员会和成员国考虑机器人领域的快速技术发展,包括网络物理系统的进步,并确保欧盟法律不会落后于技术发展和部署的曲线;

20.强调《宪章》第7条和第8条以及《欧洲联盟运作条约》第16条所载尊重私人生活和保护个人数据的权利适用于机器人技术的所有领域,必须充分遵守欧盟数据保护法律框架;在这方面,要求在GDPR的实施框架内澄清机器人中使用摄像机和传感器的规则和标准;呼吁委员会确保数据保护原则,如设计隐私和默认隐私、数据最小化、目的限制、,以及数据主体的透明控制机制和符合欧盟数据保护法的适当补救措施,并得到遵守,制定适当的建议和标准,并纳入欧盟政策;

21.强调数据的自由流动对数字经济以及机器人和人工智能领域的发展至关重要;强调机器人系统的高度安全性,包括其内部数据系统和数据流,对机器人和人工智能的正确使用至关重要;强调必须确保对互联机器人和人工智能网络的保护,以防止潜在的安全漏洞;强调高水平的个人数据安全和保护,以及在人类、机器人和人工智能之间的通信中适当考虑隐私是至关重要的;强调机器人和人工智能设计师有责任开发安全、可靠和适用的产品;呼吁委员会和成员国支持和激励必要技术的发展,包括设计安全;

标准化、安全和安保

22.强调制定标准和授予互操作性的问题是人工智能和机器人技术领域未来竞争的关键;呼吁委员会继续致力于技术标准的国际协调,尤其是与欧洲标准化组织和国际标准化组织合作,以促进创新,避免内部市场的碎片化,并保证高水平的产品安全和消费者保护,包括在适当的情况下工作环境中的最低安全标准;强调合法逆向工程和开放标准的重要性,以最大限度地提高创新价值,并确保机器人能够相互通信;欢迎在这方面设立专门技术委员会,如ISO/TC 299机器人技术委员会,专门致力于制定机器人技术标准;

23.强调在现实生活场景中测试机器人对于识别和评估机器人可能带来的风险以及超越纯实验实验室阶段的技术发展至关重要;在这方面,强调在真实场景中测试机器人,特别是在城市和道路上测试机器人,会引发大量问题,包括阻碍这些测试阶段发展的障碍,需要有效的战略和监测机制;呼吁委员会在所有成员国制定统一标准,各成员国应使用这些标准,以便根据预防原则确定允许机器人实验的区域;

自主交通工具

a)自动驾驶车辆

24.强调自主运输涵盖公路、铁路、水运和航空运输的所有形式的遥控、自动化、互联和自主方式,包括车辆、火车、船只、渡轮、飞机、无人机,以及该部门未来的所有发展和创新形式;

25.认为汽车行业最迫切需要有效的欧盟和全球规则,以确保自动化和自动汽车的跨境发展,从而充分挖掘其经济潜力,并从技术趋势的积极影响中获益;强调零散的监管方法会阻碍自主运输系统的实施,并危及欧洲竞争力;

26.提请注意,驾驶员在意外接管车辆控制权时的反应时间至关重要,因此呼吁利益相关者提供确定安全和责任问题的现实价值;

27.认为转向自动驾驶汽车将对以下方面产生影响:民事责任(责任和保险)、道路安全、与环境有关的所有主题(例如能源效率、可再生技术的使用和能源),与数据相关的问题(如数据访问、数据保护、隐私和数据共享)、与ICT基础设施相关的问题,如高效可靠通信的高密度)和就业问题(如创造和失去工作、培训重型货车司机使用自动化车辆);强调需要对道路、能源和ICT基础设施进行大量投资;呼吁委员会在其关于自动车辆的工作中考虑上述方面;

28.强调欧洲卫星导航方案“伽利略”和“EGNOS”提供的可靠定位和定时信息对实施自动车辆至关重要,为此敦促,完成欧洲伽利略定位系统所需卫星的最终确定和发射;

29.提请注意自动车辆为行动不便的人提供的高附加值,因为这种车辆使他们能够更有效地参与个人道路运输,从而便利了他们的日常生活;

b) 无人机(RPAS)

30.承认无人机技术的积极进展,特别是在搜索和救援领域;强调联盟无人机框架对保护联盟公民的安全、安保和隐私的重要性,并呼吁委员会落实议会2015年10月29日关于安全使用遥控飞行器系统(通常称为无人驾驶飞行器)的决议中的建议,在民航领域(5); 敦促委员会评估与无人机广泛使用有关的安全问题;呼吁委员会审查是否需要为RPAS引入强制性跟踪和识别系统,以确定飞机在使用期间的实时位置;忆及,应通过欧洲议会和理事会第216/2008号法规(EC)中规定的措施确保无人飞机的同质性和安全性(6);

护理机器人

31.强调老年护理机器人的研发最终已成为更主流、更便宜的产品,生产出功能更强大、消费者接受度更高的产品;注意到这类技术的广泛应用,为老年人、残疾人以及患有痴呆症、认知障碍或记忆力丧失的人提供预防、援助、监测、刺激和陪伴;

32.指出人类接触是人类护理的基本方面之一;另一方面,认为用机器人取代人为因素可能会使护理实践失去人性,认识到机器人可以执行自动化护理任务,并可以促进护理助理的工作,同时加强人类护理,使康复过程更有针对性,从而使医务人员和护理人员能够花更多时间进行诊断和更好地规划治疗方案;强调尽管机器人技术有潜力提高残疾人和老年人的机动性和融合性,但在护理方面仍需要人类,并将继续提供不可完全替代的重要社会互动来源;

医疗机器人

33.强调必须对医生和护理助理等卫生专业人员进行适当的教育、培训和准备,以确保尽可能高的专业能力,并保障和保护患者的健康;强调需要定义外科医生必须满足的最低专业要求,以便操作和允许使用手术机器人;认为尊重机器人监督自主的原则至关重要,即治疗的初步规划和执行的最终决定将始终由人类外科医生决定;强调对用户进行培训的特殊重要性,使他们能够熟悉该领域的技术要求;提请注意使用移动机器人进行自我诊断的日益增长的趋势,因此需要对医生进行处理自我诊断病例的培训;认为使用此类技术不应削弱或损害医患关系,而应为医生提供诊断和/或治疗患者的帮助,以降低人为失误的风险,提高生活质量和预期寿命;

34.相信医疗机器人在提供高精度手术和执行重复性程序方面继续取得进展,并有潜力改善康复结果,并在医院内提供高效的后勤支持;注意到医疗机器人还具有降低医疗成本的潜力,它使医疗专业人员能够将重点从治疗转移到预防,并提供更多预算资源以更好地调整患者需求的多样性,持续培训医疗专业人员和进行研究;

35.呼吁委员会确保在关于医疗设备的第2017/745号法规(EU)生效之前,测试新医疗机器人设备的程序是安全的,特别是对于植入人体的设备;

人工修复和增强

36.注意到机器人在修复和补偿受损器官和人体功能方面取得的巨大进步和进一步的潜力,但也注意到作为医疗机器人,尤其是网络物理系统(CPS),人类增强的可能性带来的复杂问题可能会改变我们对健康人体的概念,因为它们可以直接佩戴或植入人体;强调必须在医院和其他卫生保健机构紧急设立配备适当人员的机器人道德委员会,负责审议和协助解决涉及影响患者护理和治疗问题的异常复杂的道德问题;呼吁委员会和成员国制定指导方针,协助这些委员会的设立和运作;

37.指出,对于机器人假肢等重要医疗应用领域,需要确保持续、可持续地进行维护、增强,尤其是修复故障和漏洞的软件更新;

38.建议设立独立的受信任实体,保留必要的手段,向携带重要和先进医疗器械的人提供服务,例如维护、修理和增强,包括软件更新,特别是在这些服务不再由原供应商提供的情况下;建议制造商有义务向这些独立的可信赖实体提供全面的设计说明,包括源代码,类似于向国家图书馆合法存放出版物;

39.提请注意与集成到人体中的CPS可能被黑客攻击、关闭或抹去记忆相关的风险,因为这可能危及人类健康,在极端情况下甚至危及人类生命,因此强调必须优先保护此类系统;

40.强调必须保证所有人都能平等获得这种技术创新、工具和干预措施;呼吁委员会和成员国促进辅助技术的开发,以便根据欧盟为缔约国的《联合国残疾人权利公约》第4条,为需要者开发和采用这些技术提供便利;

教育和就业

41.提请注意委员会的预测,即到2020年,欧洲可能会面临多达82.5万名信息和通信技术专业人员的短缺,并且90%的工作至少需要基本的数字技能;欢迎委员会的倡议,即为各级学习者可能使用和修订数字能力框架和数字能力描述符提出路线图,并呼吁委员会为所有年龄组的数字能力发展提供重大支持,无论就业状况如何,以此作为更好地调整劳动力市场短缺和需求的第一步;强调机器人技术的发展要求会员国开发更灵活的培训和教育系统,以确保技能战略符合机器人经济的需求;

42.认为让更多年轻女性对数字职业感兴趣,让更多女性从事数字工作,将有利于数字产业、女性自身和欧洲经济;呼吁委员会和会员国发起倡议,支持妇女参与信息和通信技术并提高她们的电子技能;

43.吁请委员会开始更密切地分析和监测中长期就业趋势,特别注重创造就业机会,不同资质领域/领域的工作岗位的转移和流失,以了解哪些领域正在创造工作岗位,哪些领域由于机器人使用的增加而失去工作岗位;

44.强调预见社会变化的重要性,同时铭记机器人和人工智能的发展和部署可能产生的影响;请委员会分析不同的可能情况及其对成员国社会保障体系可行性的影响;

45.强调技能灵活性以及社会、创意和数字技能在教育中的重要性;确信除了学校传授学术知识外,终身学习还需要通过终身活动来实现;

46.注意到机器人通过将一些危险和有害的任务从人类转移到机器人,在改善工作安全方面具有巨大潜力,但同时也注意到,由于工作场所人机交互的数量不断增加,机器人可能会产生一系列新的风险;在这方面,强调必须对人机交互应用严格的前瞻性规则,以确保工作场所的健康、安全和基本权利得到尊重;

环境影响

47.注意到机器人和人工智能的发展应通过有效的能源消耗、通过促进使用可再生能源和稀缺材料提高能源效率、尽量减少浪费,例如电气和电子废物,以及可修复性来限制环境影响;因此,鼓励委员会将循环经济原则纳入欧盟机器人政策;注意到机器人的使用也将对环境产生积极影响,特别是在农业、粮食供应和运输领域,尤其是通过减少机械尺寸、减少化肥、能源和水的使用,以及通过精确农业和路线优化;

48.强调CPS将导致创建能源和基础设施系统,以控制电力从生产者流向消费者,并将导致创建既生产又消费能源的能源“生产者”;从而实现重大环境效益;

责任

49.认为机器人造成的损害的民事责任是一个关键问题,也需要在欧盟一级进行分析和解决,以确保在整个欧洲联盟为公民的利益实施法律确定性时具有同等程度的效率、透明度和一致性,消费者和企业都一样;

50.注意到机器人技术的发展需要更多地了解人类与机器人联合活动所需的共同点,这应该基于两种相互依存的核心关系,即可预测性和可指导性;指出这两种相互依存的关系对于确定人类和机器人之间需要共享哪些信息以及如何在人类和机器人之间建立共同基础以实现人类和机器人的顺利联合行动至关重要;

51.请委员会根据TFEU第114条,就未来10至15年内可预见的机器人和人工智能的开发和使用相关法律问题提交一份立法文书提案,与非立法文书相结合,如附件所列建议中提及的准则和行为守则;

52.认为无论适用于机器人在财产损害以外的情况下造成损害的民事责任的法律解决方案如何,未来的立法文书都不应限制可追回的损害的类型或程度,也不应仅以非人类代理人造成的损害为理由限制向受害方提供的赔偿形式;

53.认为未来的立法文书应以委员会的深入评估为基础,以确定是否应适用严格责任或风险管理方法;

54.同时注意到严格赔偿责任只需要证明损坏已经发生,并在机器人的有害功能与受害方遭受的损坏之间建立因果关系;

55.注意到风险管理方法的重点不是“过失”个人责任人,而是在某些情况下能够将风险降至最低并应对负面影响的人;

56.认为原则上,一旦确定了承担最终责任的各方,其责任应与机器人的实际指令水平及其自主程度成比例,以便机器人的学习能力或自主性越强,机器人的训练时间越长,培训师的责任越大;特别注意到,在试图确定机器人有害行为的实际责任人时,不应将机器人“训练”所产生的技能与严格依赖其自学能力的技能混淆;注意到,至少在目前阶段,责任必须由人类承担,而不是机器人;

57.指出,对于日益自治的机器人所造成损害的责任分配的复杂性,一个可能的解决方案可能是一项强制性的保险计划,例如汽车的情况就是如此;然而,需要注意的是,与道路交通保险制度不同,道路交通保险涵盖人类行为和故障,机器人保险制度应考虑到链中的所有潜在责任;

58.认为与机动车辆保险一样,这种保险制度可以由一项基金加以补充,以确保在没有保险的情况下可以对损害进行赔偿;呼吁保险业开发与机器人技术进步相适应的新产品和新产品类型;

59.吁请委员会在对其未来立法文书进行影响评估时,探索、分析和考虑所有可能的法律解决办法的影响,例如:
   a) 建立与特定类别机器人相关且必要的强制保险计划,与汽车、机器人生产商或所有者已经发生的情况类似,要求为机器人可能造成的损害投保;
   b) 确保赔偿基金不仅用于保证机器人造成的损害不在保险范围内的情况下的赔偿;
   c) 允许制造商、程序员、所有者或用户从有限责任中受益,前提是他们向赔偿基金缴款,以及如果他们共同购买保险,以保证机器人造成的损害得到赔偿;
   d) 决定是为所有智能自主机器人创建一个普通基金,还是为每个机器人类别创建一个个人基金,以及在将机器人投放市场时,是否应一次性支付捐款,或者是否应在机器人的生命周期内支付定期捐款;
   e) 确保机器人与其基金之间的联系可以通过特定工会登记簿中显示的个人注册号来显示,这将允许与机器人交互的任何人了解基金的性质,以及财产损坏时机器人的责任限制,出资人的姓名和职能以及所有其他相关细节;
   f) 从长远来看,为机器人创造一个特定的法律地位,以便至少可以将最先进的自主机器人确立为电子人的地位,负责修复其可能造成的任何损坏,并可能将电子人格应用于机器人自主决策或与第三方独立交互的情况;

国际方面

60.注意到欧盟内现行适用的关于交通事故的一般国际私法规则并不迫切需要进行实质性修改,以适应自动驾驶汽车的发展,但是,简化了目前定义适用法律的双重制度(基于条例(EC)欧洲议会和理事会第864/2007号(7)以及1971年5月4日《关于交通事故适用法律的海牙公约》)将提高法律确定性并限制法院购物的可能性;

61.注意到需要考虑修订国际协定,例如1968年11月8日《维也纳道路交通公约》和《关于交通事故适用法律的海牙公约》;

62.期待委员会确保会员国以统一的方式实施国际法,如《维也纳道路交通公约》,该公约需要进行修订,以使无人驾驶成为可能,并呼吁委员会,成员国和行业尽快实现《阿姆斯特丹宣言》的目标;

63.大力鼓励在审查社会、道德和法律挑战方面开展国际合作,并随后在联合国主持下制定监管标准;

64.指出欧洲议会和理事会第428/2009号法规(EC)中规定的限制和条件(8)关于两用物品(可用于民用和军事用途和/或有助于大规模毁灭性武器扩散的货物、软件和技术)的贸易,也应适用于机器人的应用;

最后的方面

65.请委员会根据《欧盟条约》第225条,根据《欧盟公约》第114条,按照附件中的建议,提交一份机器人民法规则指令提案;

66.确认这些建议尊重基本权利和辅助性原则;

67.认为如果设立一个新的欧洲机构,所要求的提案将产生经费问题;

o个
o o(零)

68.指示主席将本决议及其所附建议转交委员会和理事会。

(1)1985年7月25日关于统一成员国有关缺陷产品责任的法律、法规和行政规定的理事会指令85/374/EEC(OJ L 210,7.8.1985,第29页)。
(2)2016年4月27日欧洲议会和理事会关于在处理个人数据和自由移动此类数据方面保护自然人的第2016/679号条例(EU),并废除第95/46/EC号指令(一般数据保护条例)(OJ L,119 4.5.2016,第1页)。
(3)(1) 机器人不得伤害人类,也不得因不作为而让人类受到伤害。(2) 机器人必须服从人类发出的命令,除非这些命令与第一定律相冲突。(3) 机器人必须保护自己的存在,只要这种保护不违反第一定律或第二定律(参见:I.Asimov,Runaround,1943)和(0)机器人不得伤害人类,也不得因不作为而让人类受到伤害。
(4)参考《舒曼宣言》(1950年):“欧洲不会一次建成,也不会按照一个单一的计划建成。它将通过具体的成就来建立,而这些成就首先创造了事实上的团结。”
(5)采用的文本,P8_TA(2015)0390.
(6)2008年2月20日欧洲议会和理事会关于民用航空领域共同规则和建立欧洲航空安全局的第216/2008号法规(EC),并废除理事会指令91/670/EEC、第1592/2002号法规(CE)和第2004/36/EC号指令(OJ L 792008年3月19日,第1页)。
(7)2007年7月11日欧洲议会和理事会关于非合同义务适用法律的第864/2007号条例(EC)(罗马II)(OJ L 1992007年7月份31日,第40页)。
(8)2009年5月5日第428/2009号理事会条例(EC)建立了共同体两用物品出口、转让、中间商交易和过境管制制度(OJ L 1342009年2月29日,第1页)。


决议附件:

关于所需标书内容的建议

“智能机器人”的定义和分类

应建立智能自主机器人的通用欧洲定义,适当时包括其子类别的定义,并考虑到以下特征:

–通过传感器和/或与环境交换数据(互联性)获得自主性的能力,以及对这些数据的分析;

–通过经验和互动学习的能力;

–机器人的物理支撑形式;

–使其行为和行动适应环境的能力。

智能机器人注册

为了可追溯性的目的,并为了促进进一步建议的实施,应根据为机器人分类制定的标准,引入先进机器人注册系统。注册和登记系统应为全联盟的,覆盖内部市场,并可由指定的欧盟机器人和人工智能机构管理,以防该机构成立。

民法责任

在财产损失以外的情况下,适用于机器人和人工智能责任的任何选定法律解决方案都不应限制可追回的损害的类型或程度,也不应仅以非人类代理人造成的损害为理由,限制向受害方提供赔偿的形式。

未来的立法文书应以委员会的深入评估为基础,确定是应适用严格责任法还是风险管理法。

应该建立一个强制性保险计划,该计划可以基于生产者为其生产的自主机器人投保的义务。

保险制度应得到基金的补充,以确保在没有保险覆盖的情况下可以赔偿损失。

关于适用于机器人和人工智能的民事责任规则的任何政策决定,都应与专门研究机器人和神经科学的欧洲研发项目进行适当协商,并让科学家和专家能够评估所有相关风险和后果;

互操作性、代码访问和知识产权

应确保相互交互的网络连接自主机器人的互操作性。需要时,应能访问源代码、输入数据和构造细节,调查智能机器人造成的事故和损坏,并确保其持续运行、可用性、可靠性、安全性和保障性。

机器人宪章

委员会在提出与机器人有关的法律法案时,应考虑到以下《机器人宪章》所载的原则。

机器人宪章

拟议的机器人领域道德行为准则将为从设计和开发阶段开始识别、监督和遵守基本道德原则奠定基础。

该框架是与一个专门研究机器人和神经科学的欧洲研发项目协商起草的,必须以反思的方式进行设计,允许根据具体情况进行个别调整,以评估给定行为在给定情况下是正确的还是错误的,并根据预设的价值层次做出决策。

该准则不应取代应对该领域所有重大法律挑战的需要,而应具有补充功能。相反,它将促进机器人技术的道德分类,加强该领域负责任的创新努力,并解决公众关注的问题。

应特别强调相关技术轨迹的研发阶段(设计过程、道德审查、审计控制等)。它的目标应该是满足研究人员、从业者、用户和设计师遵守道德标准的需要,同时引入一个程序,设计解决相关道德困境的方法,并允许这些系统以道德上负责任的方式运行。

机器人工程师道德行为规范

序言

《行为准则》邀请所有研究人员和设计师负责任地行事,并绝对考虑到尊重人类尊严、隐私和安全的必要性。

该准则要求所有学科之间密切合作,以确保机器人研究在欧盟以安全、合乎道德和有效的方式进行。

行为准则涵盖机器人领域的所有研发活动。

《行为准则》是自愿的,为所有利益相关者采取的行动提供了一套一般原则和准则。

鼓励机器人研究资助机构、研究组织、研究人员和伦理委员会尽早考虑正在研究的技术或对象的未来影响,并培养责任文化,以应对未来可能出现的挑战和机遇。

公共和私人机器人研究资助机构应要求进行风险评估,并在每次提交机器人研究资助提案时一并提交。这样的代码应该将人类而不是机器人视为负责任的代理。

机器人领域的研究人员应致力于最高道德和专业行为,并遵守以下原则:

仁慈——机器人的行为应该符合人类的最大利益;

无礼——“首先,不伤害”的原则,即机器人不应伤害人类;

自主性——对与机器人交互的条件做出知情、无偏见决策的能力;

公正——公平分配与机器人相关的利益,尤其是家庭护理和医疗机器人的可负担性。

基本权利

机器人研究活动应尊重基本权利,并在设计、实施、传播和使用过程中,为了个人和整个社会的福祉和自决权而开展。人的尊严和自主权,无论是生理上还是心理上,都应该得到尊重。

预防措施

机器人研究活动应按照预防原则进行,预测结果的潜在安全影响,并根据保护水平采取适当预防措施,同时鼓励进步,造福社会和环境。

包容性

机器人工程师保证透明度,并尊重所有利益相关者获取信息的合法权利。包容性允许参与机器人研究活动或与之相关的所有利益相关者参与决策过程。

问责制

机器人工程师应继续对机器人可能对今世后代造成的社会、环境和人类健康影响负责。

安全

机器人设计师应该考虑并尊重人们的身体健康、安全、健康和权利。机器人工程师必须维护人类福祉,同时尊重人权,并及时披露可能危害公众或环境的因素。

可逆性

可逆性是可控性的一个必要条件,是对机器人进行安全可靠编程时的一个基本概念。可逆性模型告诉机器人哪些动作是可逆的,如果是可逆的则如何反转。撤消最后一个操作或一系列操作的功能允许用户撤消不需要的操作,并返回到工作的“良好”阶段。

隐私

隐私权必须始终得到尊重。机器人技术工程师应确保私人信息的安全性,并且只能正确使用。此外,机器人工程师应保证,除了特殊情况外,只有在明确、明确的知情同意下,个人才能被识别。在进行任何人机交互之前,应寻求并获得人类知情同意。因此,机器人设计师有责任制定并遵循有效同意、保密、匿名、公平对待和正当程序的程序。设计师将遵守任何要求,销毁任何相关数据,并从任何数据集中删除。

利益最大化,危害最小化

研究人员应寻求在从开始到传播的所有阶段最大限度地发挥其工作的效益。必须避免对研究参与者、人体、实验、试验或研究参与者或受试者造成伤害。如果风险是研究中不可避免的组成部分,则应制定并遵守稳健的风险评估和管理协议。通常,伤害的风险不应大于日常生活中遇到的风险,即人们所面临的风险不应该大于或超过他们在正常生活方式中所面临的那些风险。机器人系统的操作应始终基于彻底的风险评估过程,并应遵循预防原则和比例原则。

研究道德委员会规范(REC)

原则

独立性

伦理审查过程应独立于研究本身。这一原则强调了需要避免研究人员与审查伦理协议的人员之间、审查人员与组织治理结构之间的利益冲突。

能力

道德审查过程应由具备适当专业知识的审查人员进行,同时考虑到需要仔细考虑REC的成员范围和道德培训。

透明度和问责制

审查过程应负责并接受审查。REC需要认识到自己的责任,并在组织结构中适当定位,使REC操作和程序透明,以维护和审查标准。

研究道德委员会的作用

REC通常负责审查由相关机构内部或机构雇佣的个人进行的涉及人类参与者的所有研究;确保道德审查独立、胜任且及时;保护研究参与者的尊严、权利和福利;考虑研究人员的安全;考虑其他利益相关者的合法利益;对提案的科学价值做出明智的判断;如果发现提案在某些方面有欠缺,则向研究人员提出明智的建议。

研究道德委员会的组成

REC通常应该是多学科的;包括男性和女性;由在机器人研究领域具有广泛经验和专业知识的成员组成。任命机制应确保委员会成员在科学专业知识、哲学、法律或道德背景以及世俗观点之间取得适当平衡,并且至少包括一名具有伦理专业知识的成员、专业健康的使用者、,作为研究活动重点的教育或社会服务,以及具有与其审查的研究相关的特定方法专业知识的个人;它们的构成必须避免利益冲突。

监测

所有研究机构都应建立适当的程序,以监督已获得道德批准的研究的进行,直至研究完成,并确保对研究设计预期可能随时间发生的需要解决的变化进行持续审查。监测应与研究相关风险的性质和程度相称。如果REC认为监测报告对研究的道德行为提出了重大关切,则应要求对研究进行全面详细的说明,以进行全面的道德审查。如果判定某项研究的进行不道德,则应考虑撤销其批准,并暂停或停止其研究。

设计师执照

–在设计、开发和交付此类技术之前、期间和之后,您应该考虑到尊严、自治和自决、自由和正义等欧洲价值观,包括不伤害、伤害、欺骗或剥削(易受伤害的)用户的需要。

–您应该在机器人操作的各个方面引入值得信赖的系统设计原则,包括硬件和软件设计,以及出于安全目的在平台上或平台外进行的任何数据处理。

–您应该通过设计引入隐私功能,以确保隐私信息的安全性和使用得当。

–您应该集成明显的opt-out机制(kill switch),这些机制应该与合理的设计目标一致。

–您应确保机器人的操作方式符合当地、国家和国际道德和法律原则。

–您应该确保机器人的决策步骤易于重建和跟踪。

–您应该确保机器人系统编程时需要最大的透明度,以及机器人行为的可预测性。

–您应该通过考虑解释和操作的不确定性以及可能的机器人或人类故障来分析人机系统的可预测性。

–您应该在机器人的设计阶段开发跟踪工具。这些工具将有助于在专家、操作员和用户的不同级别上对机器人行为进行会计和解释,即使是有限的。

–在评估机器人技术(包括认知、心理和环境)的益处和风险时,您应该制定设计和评估协议,并与潜在用户和利益相关者一起进行评估。

–你应该确保机器人在与人类互动时可以识别为机器人。

–考虑到机器人作为产品的设计应使用确保其安全性和安全性的流程,您应保护与机器人交互和接触的人员的安全和健康。机器人工程师必须维护人类福祉,同时尊重人权,在不保障系统运行的安全性、有效性和可逆性的情况下,不得部署机器人。

–在真实环境中测试机器人或让人类参与机器人的设计和开发程序之前,您应该获得研究道德委员会的积极意见。

用户许可证

–您可以使用机器人,而无需担心身体或心理伤害。

–您有权期望机器人执行明确设计的任何任务。

–你应该知道,任何机器人都可能有感知、认知和驱动方面的限制。

–你应该尊重人类的身体和心理脆弱性,以及人类的情感需求。

–您应该考虑个人的隐私权,包括在私密过程中关闭视频监视器。

–未经数据主体明确同意,不得收集、使用或披露个人信息。

–不允许您以任何违反道德或法律原则和标准的方式使用机器人。

–您不允许修改任何机器人以使其能够用作武器。

法律公告 - 隐私政策