理解数据道德。欧洲政策制定中数据伦理辩论背后的力量

格里·哈塞尔巴赫,信息研究系,哥本哈根大学,丹麦

发布日期:2019年6月13日内政部:10.14763/2019.2.1401

摘要

本文对欧洲决策中塑造“数据伦理”定义的不同行动者和力量进行了分析研究。它详细说明了数据伦理公共政策举措是如何在欧洲一般数据保护改革的背景下形成的,并解决了其作用和功能方面存在的普遍不确定性。本文还提出了一个面向行动的“权力数据伦理”分析框架,旨在阐明“大数据社会”的权力关系,我们认为,数据伦理政策倡议是不同利益集团之间的开放式谈判空间,旨在引导“数据伦理”的文化定义,通过文化定位行使复杂的权力关系。
引用&出版信息
收到: 2018年11月21日 检验过的: 2019年1月28日 出版:2019年6月13日
许可证: 德国知识共享署名3.0
竞争利益:作者声明,不存在影响文本的竞争利益。
关键词: 数据伦理,数据保护,隐私,欧洲政策制定,治理
引用:Hasselbalch,G.(2019年)。理解数据伦理。欧洲政策制定中数据伦理辩论背后的权力。互联网政策审查,8(2). https://doi.org/10.14763/2019.2.1401

介绍

2018年1月:这条推特在我脑海中盘旋:“伦理学家在哪里?”。没有合适的基金会,没有合适的专业知识——伦理学家失踪,人文主义者失踪,法律专家失踪。这些举措的结果、结果和要求尚不明确。他们会淡化法律吗?但我理解这些批评。在就这个主题进行了漫长的谈判之后,刚刚通过了一项法律,我们怎么能谈论数据伦理呢?这些讨论的作用是什么?如果我们没有在那里承认共识,即法律解决方案,那又有什么意义?

在欧洲全面数据保护法律改革的推动下,关于数据伦理的讨论在欧洲公共决策中获得了吸引力。已经制定了许多数据道德公共政策倡议,超越了仅仅遵守数据保护法的问题,越来越关注大数据的道德,特别是私营公司和公共机构处理数字形式的个人数据的道德。公众话语的接受程度参差不齐。尽管这些数据道德政策举措引起了公众的极大关注和兴趣,但也被描述为政府的“无牙奇迹”(例如,希尔,2017年11月24日)和资源浪费,并因提请公众注意公共机构对公民数据的不当处理(例如,Ingeniören的管理小组,2018年3月16日,oped),以及潜在的“道德清洗”(Wagner,2018),质疑倡议中涉及的专业知识和利益,以及其规范道德框架而受到批评。

本文对影响欧洲决策中数据伦理定义的各个维度和参与者进行了分析研究。具体而言,我探讨了欧洲数据道德政策倡议的作用和功能,并就其如何以及为什么在欧洲数据保护监管改革的背景下形成提出了一个论点。明确使用“伦理学”一词需要一个哲学框架;“数据”一词是从当代角度来看待信息在数字化社会中的关键作用;以及达成共识和解决问题的政策背景。总之,这些关于数据道德政策倡议的作用的观点非常中肯。然而,单独来看,它们都提供了对其角色和功能的片面的万花筒式见解。例如,关于数据伦理倡议的道德哲学观点(在公共决策和私营行业中)可能不会对嵌入的利益和权力关系保持警惕;追求可操作的政策结果可能会忽视其作为谈判和定位空间的功能;虽然将数据道德倡议视为大数据时代的全新事物,但可能会忽视它们在历史和治理中的地位和关系。

因此,在我的分析中,我采用了一种跨学科的方法,该方法借鉴了应用伦理学、政治学、社会学、文化和基础设施/STS研究中不同子领域的方法和理论。本文的中心论题是,我们应该将数据伦理政策举措视为嵌入复杂社会技术动态中的开放式谈判空间,以应对随着时间推移而扩展的多方面治理挑战。因此,我们不应将数据道德政策举措视为其本身的解决方案。它们并不能取代《欧洲通用数据保护条例》(GDPR)等法律框架。相反,它们是对现有法律的补充,可能会激发、指导甚至启动政治、经济和教育进程,从而促进大数据时代的道德“设计”,涵盖从新法律的出台、,在组织和公司中实施政策和实践,制定新的工程标准,在公民中开展提高认识的活动和教育倡议。

在下文中,我首先概述了数据伦理的跨学科概念,提出了我所定义的数据伦理分析框架权力的数据伦理然后,我描述了GDPR背景下的数据伦理公共政策重点。我承认道德讨论隐含在立法过程中。尽管如此,在这篇文章中,我并没有具体关注监管的谈判过程,而是关注政策制定者明确使用“数据伦理”一词,尤其是正式的数据伦理政策举措(例如,委员会、工作组、既定目标和结果)的出现,其中许多是在GDPR通过之后。随后,我开始分析2015-2018年期间公共政策报告、声明、访谈和事件中描述的数据道德。最后,我退一步,回顾一下数据伦理的定义。如今,数据伦理是一种用于决策的理念、概念和方法,但没有共同的定义。虽然数据伦理的更为一致的概念可能为法律、商业和社会行动的集体愿景提供了一个指导步骤,但贯穿本文的一个论点是,在这个价值观和政治中立的空间中,没有数据伦理的定义。因此,我们必须将自己定位在特定于环境的道德行为类型中。

本文由我在2017-2020年期间进行的一项关于治理和技术开发中的数据伦理的研究得知。在该研究和本文中,我使用了一种基于人种学的知情方法,该方法基于积极和深入参与各种数据保护/互联网治理政策事件、工作组和倡议。定性嵌入式研究需要研究人员作为一名积极参与的成员融入研究领域,以获得全面的知识和理解(布迪厄,1997年;布迪厄和瓦夸,1992年;戈夫曼,1974年;英戈尔德,2000年;王,2009年)。因此,对于我理解本文主题的基本维度来说,至关重要的是我积极参与互联网治理政策社区。例如,我曾是丹麦政府数据伦理专家委员会(2018年)的成员,也是欧盟委员会人工智能高级专家组(2018-2020年)的一员。我也是活跃在该领域的非盈利组织DataEthics.eu的创始人。

在本文中,我还借鉴了与九位积极参与者(决策者、政策顾问和公务员)互动时产生的想法、概念和意见,他们通过分享他们在欧洲数据伦理方面的经验,帮助我理解了决策动态1决策(详见参考资料)。受访者被告知这项研究,他们不会在任何出版物中以姓名和机构来代表,因为我希望他们受到机构利益和账户要求的影响最小。2

第一节:什么是数据道德?权力的数据伦理

在本节中,我将介绍新兴的数据伦理领域,作为对构成“大数据社会”结构的社会技术系统中社会权力分配的跨学科研究。基于应用伦理学、法律研究和文化研究、社会和政治科学以及政策和商业领域的一场运动的理论、实践和方法,我提出了“权力数据伦理”的分析框架。

作为出发点,我将权力的数据伦理定义为一个面向行动的分析框架,关注“大数据社会”中嵌入的权力关系及其谈判和分配条件,以指向设计、商业、政策、,支持以人为中心的权力分配的社会和文化过程。在前一本书(Hasselbalch和Tranberg,2016)中,我们将数据伦理描述为一场变革和行动的社会运动:“在全球范围内,我们看到数据伦理范式的转变正在形成一场社会运动、一场文化转变以及一场日益以人为中心的技术和法律发展”(第10页)。因此,数据伦理可以被视为一项积极主动的议程,涉及改变社会权力关系,旨在平衡大数据社会中的权力。这种转变体现在法律发展(如GDPR谈判过程)和新公民隐私关注和实践中,如广告屏蔽和隐私增强服务的使用增加等,在数据收集和处理中纳入数据伦理价值观,以及其一般创新实践、技术开发、品牌和商业政策时,出现了新类型的企业,这些企业不仅仅是遵守数据保护立法。

在这里,我使用“大数据社会”的概念,在“信息社会”最近的数据(再)演变的背景下,反思性地定位数据伦理,这是由计算机技术支持的,是由所有事物(和人)转换为数据格式(“数据化”)所决定的,以“量化世界”(Mayer-Schonberger&Cukier,2013年,第79页)组织社会并预测风险。虽然我认为这不是一种武断的进化,但也可以被视为不同本体论观点之间关于人类地位和科学技术作用的谈判的表现。随着现代主义科学实践主导自然和生物的流行意识形态的实现,大数据社会的关键基础设施可以很好地描述为体现在控制和秩序的“现实生活”中的现代性(爱德华兹,2002年,第191页)。从这个观点来看,权力的数据伦理可以描述为后现代主义者,或本质上生命学家,呼吁采取一种特定的“道德行动”(Frohmann,2007年,第63页),以使生命/人类摆脱现代技术基础设施中嵌入的控制实践的限制,同时降低人类的价值。在这里,有价值的是理解当前对数据伦理行动的呼吁,这是对哲学家亨利·柏格森(Henri Bergson)在上世纪之交针对科学理性智慧的重要论据的延伸,科学理性智慧没有为活人提供空间或特殊地位(柏格森,1988年,1998年)。在类似的道德框架中,同样受到柏格森(Bergson)(Deleuze,1988)启发的Gilles Deleuze后来描述了过度编码的“控制社会”(Deleuz,1992),它将人们(“个人”)减少到一个标记他们进入并将他们的身体锁定在特定位置的代码中(第5页)。最近,Spiekerman等人(2017)在其反跨人文主义宣言直接反对人类仅仅是信息对象的观点,与其他信息对象(即非人类信息对象)没有区别,他们将其描述为“通过计算来表达控制欲望。他们的方法局限于将世界简化为适合机械操作的基于数据的模式”(第2页)。

然而,权力的数据伦理也应被视为对嵌入并通过“液体监测协会”(Lyon,2010)当前和即时经验传播的权力动态的直接回应。监督研究学者David Lyon(2014)设想了一种“大数据实践道德”(2014,第10页),以重新协商技术大数据基础设施中日益暴露出的权力分配不均。在这个框架内,我们不仅传统上关注国家作为(监督的)主要权力行动者,而且还包括通过积累和获取大数据获得权力的新利益相关者。例如,在权力数据伦理的分析框架中,鉴于个人与在数字网络中收集和处理数据的大数据公司之间的信息不对称,权力动态的变化越来越受到重视(Pasquale,2015;Powles,2015-2018;Zuboff,2016年3月5日,2014年9月9日,2019)。

除了这个基本的理论框架之外,可以在跨学科领域探索权力的数据伦理,以不同的方式解决大数据社会中的权力分配问题。

例如,从计算机伦理的角度来看,权力分配被视为道德困境或计算机技术的设计和实际应用的含义。事实上,技术从来都不是中性的,它们体现了道德价值和规范(Flanagan、Howe和Nissenbaum,2008),因此可以通过分析技术是如何以道德或道德问题的方式设计的来确定权力关系。信息科学学者巴蒂亚·弗里德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)(1996)阐述了现有计算机系统中嵌入的不同类型的偏见,这些偏见用于航班预订和医学毕业生的第一份工作分配等任务,并提出了计算机系统设计中此类问题的框架。从这个角度来看,我们也可以将数据伦理描述为哲学和技术学者菲利普·布雷所称的“披露性计算机伦理”,确定不透明信息技术中的道德问题,如“隐私、民主、分配正义和自治”(布雷,2000年,第12页)。不同的措辞是,权力的数据伦理预设技术具有“政治”或嵌入的“权力和权威安排”(Winner,1980年,第123页)。特定数据处理软件及其使用的案例研究可以定义为权力的数据伦理案例研究,尤其是“机器偏差”这项研究(Angwin等人,2016年)揭露了美国国防系统使用的数据处理软件中存在的歧视,以及Cathy O'Neil(2016年)对大数据决策背后的数学社会影响的分析,从获得保险、信贷到获得和持有工作,无所不包。

然而,数据系统以多种形式(从应用程序到机器人)在社会中越来越根深蒂固,并具有无限和广泛的道德含义(从价格差异到社会评分),因此我们必须超越设计和计算机技术本身。数据伦理作为最近的一个名称,代表了哲学家卢西亚诺·弗洛里迪和玛丽亚特雷萨·塔迪奥(2016,第3页)所描述的计算机和信息伦理哲学传统中的主要语义转变,从关注“硬件”的伦理含义到关注数据数据科学实践。然而,从哲学领域的应用伦理学到权力的数据伦理学,我们对大数据社会的理论不仅仅是语义上的。权力数据伦理的概念化也可以在法律框架中进行探讨,作为在不断发展的大数据社会中法治和保护公民权利的一个方面。在这里,在法律研究框架中重新定义隐私概念(Cohen,2013;Solove,2008),解决了挑战现有法律的新数据实践和配置的道德含义,从而实现民主社会中的权力平衡。正如法律学者尼尔·理查兹(Neil M.Richards)和乔纳森·金(Jonathan King)(2014)所言:“当大数据集的二次使用可以对过去、现在甚至未来的隐私、机密和身份违规行为进行反向工程时,专注于管理个人身份信息的现有隐私保护是不够的”(第393页)。重要的是,这些作者将大数据定义为“在社会上,而不是在技术上,根据其将产生的更广泛的社会影响”(Richards&King,2014年,第394页),对“大数据伦理”(第393页)进行了更具包容性的分析从而指出了以牺牲“个人身份”为代价,赋予拥有大数据能力的机构权力的道德含义(第395页)。

从政策、商业和技术领域来看,数据和数据技术的力量所带来的道德影响被认为是大数据机构和公民在数据技术设计过程中日益严重的数据不对称问题。例如,非营利协会描述了“个人数据存储运动”(Hasselbalch&Tranberg,2016年9月27日)的概念框架MyData全球移动作为一个“个人在网上和网下个人生活管理中是被赋予权力的行动者,而不是被动的目标——他们拥有管理其数据和隐私的权利和实际手段”(Poikola、Kuikkaniemi和Honko,2018)。在这个不断发展的商业和技术领域,重点是超越单纯的法律数据保护合规性,通过设计实现价值观和道德原则,如透明度、问责制和隐私(Hasselbalch&Tranberg,2016),并且通过基于价值的技术设计方法减轻道德影响。例如,工程标准IEEE P7000s道德和AI标准 寻求通过设计人工智能发展的标准和指导原则来发展道德。最近的政策文件(如第5.2节)也重新审视了基于值的设计方法。欧洲议会的“技术内嵌价值——道德设计”人工智能与机器人解决方案“2019年2月通过。

数据伦理的一个关键框架是以人为本我们越来越多地看到,这种方法包含在道德准则和政策文件中。例如,欧洲议会(2019,V)决议指出,“而人工智能和机器人应以人为中心的方式开发和部署,以支持工作和家庭中的人类……”。欧共体人工智能高级专家组道德准则草案还强调了以人为中心的人工智能方法是如何“努力确保人类价值始终是首要考虑因素”(工作文件,2018年12月18日,第iv页),并将其与民主社会的权力平衡直接联系起来:“政治权力是以人为中心和有界限的。人工智能系统不得干涉民主进程”(第7页)。欧洲决策中以人为中心的方法是在欧洲基本权利框架内制定的(例如,在欧洲委员会AI高级专家组的道德准则草案中广泛描述的)和/或强调人类利益高于“社会或科学的唯一利益”(《奥维耶多公约》第2条)。在旨在在信息处理技术发展中保持人类特定素质的技术和业务发展中,也可以找到以人为本方法的实际例子。示例包括人工智能设计中的人在环(HITL)方法、国际标准化组织(ISO)关于以人为本设计(HCD)的标准和个人数据存储运动,定义为“以人为本的个人数据管理和处理的北欧模式。”(Poikola等人,2018年)

第2节:背景下的欧洲数据道德政策倡议

自20世纪90年代以来,欧洲一直在进行政策辩论,专门讨论技术发展背景下的道德问题。这场辩论日益寻求协调国家法律和方法,以便在技术快速发展的背景下维护欧洲价值框架。例如,欧洲委员会的《奥维耶多公约》是由Wachter(1997年,第14页)所描述的“欧洲的传统价值观受到生物和医学快速革命性发展的威胁”所推动的。数据伦理就其本身而言在GDPR谈判的最后几年,通过建立一些直接涉及数据和/或数字道德的倡议,泛欧政治取得了势头。因此,欧洲数据保护主管(EDPS)数字道德咨询小组(2018年,第5页)将其工作描述为针对“公众和私人领域对道德问题越来越感兴趣,《通用数据保护条例》(GDPR)即将于2018年5月生效”.

从欧盟委员会2012年的提案开始,分别对1995年数据保护指令的制定和GDPR的谈判过程中涉及的范围差异和利益相关者进行了审查,从而对数据伦理重点的演变提供了一些见解。1995年指令是由一个由隐私专家和国家数据保护专员组成的欧洲工作组在排除商业利益相关者的过程中制定的(海森堡,2005年)。然而,影响和参与GDPR进程发展的行动者群体逐渐扩大,新的利益相关者包括消费者和公民自由组织以及美国行业代表和决策者。GDPR通常被描述为最受游说的欧盟法规之一(沃曼,2012年2月8日)。与此同时,公众越来越关注大数据时代的道德含义,发布了大量关于数据泄露和黑客攻击、算法歧视和基于数据的选民操纵的新闻报道。

在欧洲机构内部和外部讨论了《通用数据保护条例》的一些具体条款。例如,2012年提出的“删除权”受到了行业和民间社会组织的激烈辩论,尤其是在欧洲和美国,媒体经常将其描述为隐私和言论自由之间的价值选择。2013年,向第三国(包括《欧盟-美国安全港协议》所涵盖的国家)传输数据引发了某些欧盟议员和美国政客之间关于大规模监控和美国大型科技公司作用的更广泛的公开辩论。另一个例子是关于16岁年龄限制的讨论。这就要求民间社会的倡导者采取行动(卡尔,《我该笑、该哭还是该移民?》,2015年12月13日),并导致与美国科技公司就年轻人享有“教育和社会机会”的权利结成新的联盟(理查森,《欧洲一般数据保护条例草案:辩论》,2015年间12月10日)。最后一刻的决定使成员国的年龄限制降低到13岁成为可能。

这些相互交织的辩论和谈判说明了数据保护领域是如何在全球信息技术基础设施内发生转变的。它的形成是经济实体、欧盟机构、民间社会组织、企业和第三国国家利益之间相互竞争的利益和价值观的谈判。我们还可以认为,这些权利、价值观和责任谈判以及建立新联盟的空间与欧洲政策制定中数据伦理政策举措的出现有因果关系。在第一次发布改革信息后的几年里,数据保护辩论得到了扩展,数据道德的概念越来越多地被纳入会议议程、公共政策环境中的辩论以及报告和指南中。GDPR通过后,具有既定数据或数字道德倡议和目标的欧洲成员国或机构的名单迅速增长。例如,英国政府宣布成立一个耗资900万英镑的数据伦理与创新中心,旨在“就新数据驱动技术(包括人工智能)的影响向政府和监管机构提供建议”(2018年数字宪章). 丹麦政府任命了一个数据伦理专家委员会42018年3月,以直接经济激励为丹麦行业制定数据道德建议,并将负责任的数据共享转化为该国的竞争优势(丹麦商业管理局,2018年3月份12日)。一些成员国现有的和新成立的专家和咨询小组及委员会开始将道德目标纳入其工作。例如,意大利政府于2017年4月成立了一个人工智能工作队,并于2018年发布了第一份白皮书(人工智能工作组/意大利,2018年),其中有一个关于道德的明确章节。欧盟委员会AI战略沟通于2018年4月出版,还包括成立AI高级专家组5第二年,除其他外,其职责是发布欧洲人工智能道德准则。

第3节:数据道德-政策真空

“我深信,在未来几年,数据保护和隐私保护的道德层面将变得更加重要”(in’t Veld,2017)。2017年,一位欧洲议会议员在一次公开辩论中所说的这些话,指的是有关数据保护和隐私的政策辩论的演变。她声称,你可以讨论法律数据保护条款,但还有“一种狭隘的灰色地带,在那里你必须进行道德考虑,并说出更重要的东西”(in’t Veld,2017)。她在这种情况下使用“道德”一词是什么意思?

道德哲学学者詹姆斯·穆尔(James H.Moor)在一篇题为“什么是计算机伦理学?”(1985)的文章中描述了应用伦理学的分支,该分支研究计算机技术的伦理含义。在第一台IBM个人电脑Acorn进入大众市场几年后出版,摩尔对计算机技术感兴趣就其本身而言(计算机有什么特别之处),以及在计算机改变事物状态并创造新事物的特定情况下所需的政策。但他还预测,由于计算机的引入,将“给我们留下政策和概念真空”(第272页),将引发更广泛的社会革命(摩尔,1985年,第268页)。他认为,政策真空将带来核心问题和挑战,揭示“概念混乱”(第266页)、不确定性以及新价值观和替代政策的出现(第267页)。

如果我们根据摩尔的框架来看待数据伦理政策倡议,它们可以被描述为决策和谈判的时刻,以应对当计算机系统修改情况和设置时出现的政策真空。在2017年互联网治理论坛(IGF)上进行的一次采访中,一位荷兰议员描述了2013年,荷兰的决策者如何匆忙应对数字技术引发的变革。”非常错误”(采访,IGF 2017)。作为回应,她提议成立一个国家委员会,以考虑数字社会的道德挑战:“你知道,很难把辩论从战壕里赶出来,所以人们不再说‘这是我的立场,这是我自己的立场’,但坐下来看看目前正在发生什么,这将是如此巨大,如此不可思议,我们不知道我们的社会会发生什么,我们需要人们思考关于如何应对这一切,不是从你知道的“我不想要”的意义上说,而是从“有边界吗?”的意义上来说我们必须对未来几年发生的所有这些可能性设定限制吗?”同样,在同一次活动中进行的另一次采访中,参与欧洲委员会部长委员会信息政策的一个欧洲国家的代表讨论了信息社会发展的结果如何包括“违规行为”,“滥用”以及认识到互联网对经济的影响。最后,她说:“我们需要放慢一点速度,考虑一下我们要去哪里”。

在审查数据道德倡议的描述时,我们可以注意到,在利用快速发展的信息和数据基础设施的所有道德含义方面,我们隐含地承认了数据保护法的局限性。因此,数据伦理成为理解新出现的问题和挑战以及评估各种政策和解决方案的手段。例如,2015年EDPS的一份报告指出:“在当今的数字环境中,仅遵守法律是不够的;我们必须考虑数据处理的道德层面”(第4页)。它接着描述了不同的欧盟法律原则(如数据最小化以及敏感个人数据和同意的概念)如何受到大数据商业模式和方法的挑战。

这些报告和声明中描述的政策真空突出了社会技术信息基础设施管理方面存在的不确定性和问题,这些基础设施不仅日益影响个人活动,而且也影响社会、文化和经济活动。

在摩尔的论文发表的同一年,传播学者约书亚·梅罗维茨(Joshua Meyrowitz)没有位置感(1985)描述了“信息系统”的出现,它通过新的信息获取方式来改变我们的物理环境,从而通过改变情况来重组我们的社会关系。正如梅罗维茨(Meyrowitz,1985年,第37页)所言,“我们需要研究更大、更具包容性的“信息模式”概念,以说明我们的信息现实如何具有塑造我们的社会和物质现实的真正品质。因此,欧洲政策制定者强调真正的品质信息和数据。他们认为数字数据处理是社会权力动态的重要组成部分。因此,信息社会决策成为资源分配和社会经济权力的问题,正如一位欧盟竞争专员在2016年哥本哈根举行的DataEthics.EU数据即权力活动上所说:“我很高兴有机会与您讨论我们如何处理数据所能提供的能力”(维斯塔格,2016年9月9日)。因此,数据伦理政策辩论已经超越了法律数据保护框架的谈判,越来越多地涉及对信息社会决策的普遍关注,其中不同的部门政策领域相互交织。正如欧洲竞争事务专员在DataEthics.eu活动上所阐述的那样:“因此,竞争很重要。它给公司带来压力,要求他们满足人们的需求。这包括安全和隐私。但我们不能指望竞争执法能解决我们所有的隐私问题。我们的第一道防线永远是专为保障我们的隐私而制定的规则”.

第4节:数据道德-文化和价值观

摩尔认为,当现有政策与技术进化发生冲突时,出现的政策真空迫使我们“发现并明确我们的价值偏好是什么”(1985年,第267页)。他提出,计算机引发的社会革命将分两个阶段进行,以我们提出的问题为标志。在第一个“介绍阶段”,我们会问一些功能性问题:这项技术和那项技术的功能如何?在第二个“渗透阶段”,当制度和活动发生转变时,摩尔认为我们将开始就事物的性质和价值提出问题(第271页)。这种第二阶段的问题在2017年的欧洲政策辩论中得到了回应,一位参与GDPR谈判进程的欧洲议会议员在公开辩论中表示:“(这)不再是一个技术问题,它是一个真正的终身重要学习体验”(Albrecht,2017),或者正如另一位欧洲议会议员在同一场辩论中所声称的那样:“GDPR不仅仅是一部立法作品,它就像一本教科书,教我们如何在这个数据世界中理解自己,如何理解他人的责任以及这个世界的规则是什么”(劳瑞斯汀,2017)。

因此,新数据保护立法的技术性转变为关于大数据时代规范和价值观的一般性讨论。菲利普·布雷(Philip Brey)将价值观描述为“人们发现世界上美好的理想品质或条件”,即我们可以努力实现的理想(2010年,第46页)。然而,价值观不仅仅是个人理想;他们也有文化背景。文化理论家雷蒙德·威廉姆斯(Raymond Williams,1958年,第6页)将文化定义为一种“形状”,一组“在机构、艺术和学习中”表达的目的和共同含义,它们出现在“在经验、接触和发现的压力下积极辩论和修正”的社会空间中。因此,文化是传统的,也是创造性的,由规定的主导意义及其协商组成(Williams,1958)。同样,人类学家詹姆斯·克利福德(1997)用“路线”取代了“根”的隐喻(原始、真实和固定文化实体的形象):在公认意义的固定文化点之间的谈判和翻译间隔。价值观在具有共同利益和文化的群体中得到提升,但它们存在于不断谈判的空间中。在2017年IGF的采访中,一位欧洲议会议员的政策顾问询问了价值观在GDPR谈判中的作用,将隐私描述为参与改革进程的一群个人共享的价值观:“我认为,从委员会提案撰写人到欧盟议会负责专员到报告员,一路走来,一群核心参与者都认同这一价值观(……),在某种程度上,他们都认同这种价值观,我认为他们成功地达成了一种比其他人更接近自己价值观的妥协”他还解释了在不同利益集团之间以及有时相互矛盾的利益集团之间的谈判过程中如何出现关于价值观的讨论:“当你看到利益冲突时,也就是当你开始考虑价值观(…)时,通常会讨论不同的价值观(..),评估一个价值观应该排在另一个价值观念(…)之前的程度因此,一些人可能会说,信息自由可能是更大的价值,或者隐私权可能是更高的价值”.

因此,实践中的道德,或布里所指的“重视某事物或发现它有价值(……)的行为”好的在某种程度上”(2010年,第46页)本质上不仅是一种主观实践,也不是一种纯粹的客观建构。如果我们调查数据伦理和道德行为在欧洲数据保护政策制定中的意义,我们可以看到谈判的要点。也就是说,如果我们观察既定价值体系之间的“间隔”以及在新环境中对这些价值体系的重新谈判,我们会发现价值观和谈判的冲突以及文化定位的轮廓。

第5节:数据道德-权力和定位

哲学和媒体研究学者Charles Ess(2014)阐述了文化如何在塑造我们关于数字技术的伦理思想方面发挥核心作用。例如,他认为,西方社会的人们把道德重点放在“个人作为道德反思和行动的主要代理人,特别是在西方个人权利观念的强化下”(第196页)。在欧洲数据伦理政策辩论中,也可以确定全球环境中的这种文化定位。一个例子是,上述2017年欧洲议会辩论的一位参与者参照具体欧洲历史事件的直接经历描述了GDPR:“这一切都是关于人的尊严和隐私。这一切都与我们的文化、欧洲文化中真正根深蒂固的人格概念有关(……)它来自《人权总宣言》。但战争、法西斯主义、共产主义和极权社会背后有一段非常悲惨的历史,这是我们为了理解为什么隐私很重要而吸取的教训。”(劳瑞斯汀,2017)。

人类尊严和隐私等价值观在欧洲基本权利和数据保护法的框架中得到了正式认可,意识到其在欧洲法律框架中的制度化根源,欧洲决策者在被问及“他们”的数据伦理价值观时会提及这些价值观。因此,数据伦理意识成为一种文化努力,将欧洲文化价值观转化为技术发展。如2015年EDPS报告所述:“尤其是欧盟现在在大规模采用这些技术之前有一个‘关键窗口’,将价值观构建到数字结构中,从而定义我们的社会”(第13页).

当将欧洲数据伦理政策举措作为价值谈判的空间时,会出现一种特定的文化安排。在这种情况下,政策制定者和决策者将自己定位于对抗对欧洲特定价值观和道德观的潜在威胁,这些价值观和伦理观普遍存在、不透明且嵌入技术中。特别是,人们开始担心国家权力的新对手。2018年,在欧洲一家机构进行的一次采访中,一位项目官员回顾了她之前在一个欧洲国家议会和政府的工作,当时人们对互联网所代表的另一种权力形式的担忧已经浮出水面。她说,互联网是进行讨论和做出决定的地方,然后才想起关于“GAFA”(谷歌、苹果、脸书和亚马逊四大科技公司的缩写)的政策辩论。欧洲政策制定者在公开演讲和辩论中直接谈到了这种价值观冲突,并越来越多地指出了他们认为应该负责的技术行业利益相关者。技术创新的内在价值是“破坏球”,目标不仅仅是“玩弄社会的组织方式,而不是破坏现有的秩序,在其位置上建立新的东西”一位欧洲议会主席在2016年的一次演讲中表示支持(Schultz,2016)。因此,价值观和伦理与一种建立在技术体系中的文化力量直接相关。正如一位基本权利和欧盟公民权主任所说,欧盟委员会司法总监在2017年的一次公开辩论中声称:“伦理学的挑战并不是首先针对个人,即数据主体;面临的挑战是控制者,他们拥有权力,控制着人们,控制着数据,他们的道德是什么?他们灌输给员工的道德规范是什么?内部合规道德?工程师道德?”(内米兹, 2017).

第6节:数据道德-谈判空间

在处理技术系统开发时,我们倾向于关闭和稳定点(Bijker等人,1987),这将指导系统的治理、控制和风险缓解。相关地,我们可以将数据道德政策举措理解为最终结果,其目标是“制定和支持道德良好的解决方案(例如,正确的行为或正确的价值观)”(Floridi&Taddeo,2016年,第1页),强调可能不是“道德中立”的算法(或技术)(Mittelstadt等人,2016年第4页)。也就是说,作为技术设计、算法的数据处理活动或数据收集和传播中提出的道德问题的解决方案。然而,我想在利益和价值谈判的背景下讨论数据道德政策倡议。例如,道德在跨越管辖区和大陆、文化价值体系和社会部门的社会技术基础设施中的起点和终点在哪里?

正如政治理论家兰登·温纳(Langdon Winner)提醒我们的那样,技术确实在设计中代表了秩序的形式(1980年,第123页)。也就是说,它是“政治性的”,因此在通过设计创造“一些社会利益的精彩突破和其他人的彻底挫折”时具有伦理意义(Winner,1980,第125页)。举个例子,在剑桥分析重新使用和处理用户数据之前,促进用户数据大规模收集的脸书API专门设计用于跟踪用户和共享数据全体与第三方合作,从而直接实现数据的大规模收集、存储和处理。然而,这些技术设计问题也与经济、社会、政治和文化问题“密不可分”(Callon,1987年,第84页)。对欧洲政策领域中不断发展的数据道德的分析表明,信息时代的基础设施“由利益和能力相竞争的多个代理塑造,在较长时间内参与一组不确定的分布式交互”,由此引发的治理挑战十分复杂(Harvey等人,2017年,第26页)。正如互联网治理学者珍妮特·霍夫曼(Jeanette Hofmann)等人所强调的那样,这个时代的治理是一个“没有明确起点或终点的异构排序过程”(2016年,第1412页)。它由参与“斗争领域”(Pohle等人,2016)的行动者组成,这些领域“通过领域与其行动者之间的互动不断产生、谈判和重塑”(第4页),对政策问题进行意义制定和竞争性解释。我建议,作为我们数据道德工作的重要组成部分,我们还应探索权力分配方式的复杂动态,以及如何在谈判空间中满足利益。

显然,我们还必须认识到数据道德政策举措是一般基础设施发展节奏的组成部分,而不是屈服于道德解决方案和孤立事件。将其理解为在技术系统开发过程中反复出现的谈判岗位(Bijker等人,1987),作为标准化和共识构建过程的一部分,在我们社会复杂的总体技术演变中,“包含混乱、复杂、解决问题的组件” (休斯,1987年,第51页)。现代性的技术系统就像世俗建筑的建筑。正如爱德华兹(2002年,第185页)所说,它们居住在“自然化的背景中,像树木、日光和泥土一样平凡”。它们无声地代表、构成并由我们物质和想象中的现代社会以及内部的权力分配构成。他们在失败之前一直无人注意(Edwards,2002)。但当它们确实失败时,我们看到了它们的复杂性。美国情报官员就是一个例子幻灯片演示文稿软件演示文稿(《卫报》,2013年)详细介绍了爱德华·斯诺登(Edward Snowden)2013年泄露的“PRISM计划”,该计划提供了信息和数据基础设施的详细地图,其特点是国家大规模监控组织、法律、司法管辖区和预算之间错综复杂的相互联系,以及万维网和社交媒体平台的技术设计。技术基础设施确实像公共建筑。有了门,直到有一天我们发现其中一扇门锁着,我们才会三思而后行。

结论

2018年10月:“这些只是工具!”一个人喊道。我们在一次工作组会议上提出并详细讨论了使用谷歌文档进行小组实际工作的问题。虽然一些人主张对在线服务的使用采取官方立场,主要是因为他们认为谷歌没有充分遵守欧洲数据保护法,但其他人认为这是浪费时间。为什么要在这个问题上花费宝贵的工作时间?

什么是数据道德?目前,答复是尖锐的,正式的框架是来自各种来源的无数声明、文件和任务声明,包括政府、政府间组织、咨询公司、公司、非政府组织、独立专家和学者。但它也会在最不经意的“非分配”讨论时刻出现。信息技术渗透到我们今天生活的各个方面,从微观工作环境到宏观经济和政治,越来越多地被认为是必须解决的“道德问题”(Introna,2005年,第76页)。它们的普遍性激发了道德思考的时刻,并根据道德原则、价值观和理想条件进行协商(Brey,2010)。在分配或未分配的谈判空间、停顿和决策时刻(Moor,1985)中,我们讨论了塑造它们的商业惯例、文化和法律管辖权的价值观(Flanagan等人,2008)和政治(Winner,1980)。这些谈判空间包括关于具体信息技术工具的非常具体的讨论,但它们也越来越多地演变为对既定法律框架、个人机构和人权的一般挑战的思考,以及关于社会一般演变的问题。正如一位丹麦部长在启动国家数据伦理专家组时所说:“这是我们想要的社会”(霍尔斯特,112018年3月).

在本文中,我探讨了欧洲数据保护法律改革背景下的数据伦理。特别是,我试图回答这个问题:“什么是数据道德?”假设答案将影响我们如何看待数据道德政策倡议的作用和功能。基于对政策文件、报告和新闻材料的审查,以及对政策制定者和公务员理解数据道德的方式的分析,我建议我们承认这些举措是开放的谈判和文化定位空间。

在政策和行动方面,这种道德方法可能会被批评为徒劳。然而,我建议将数据道德政策举措理解为谈判空间并不妨碍行动。相反,它迫使我们明确我们的出发点:塑造我们道德行为的社会和文化价值观和利益。因此,我们可以在“大数据时代”创造更透明的道德行动谈判潜力,使我们能够承认当前不仅在欧洲而且在全球出现的宏观层面的数据道德谈判空间。

本文对作为文化价值谈判空间的欧洲数据伦理政策举措进行了分析研究,揭示了一系列可操作的主题领域。它表明了价值观的冲突,以及人们对嵌入我们的技术环境中的其他形式的权力和控制的日益关注,这些都给人们尤其是个人带来了压力。在这里,权力的数据伦理以吉尔斯·德勒兹(Gilles Deleuze)对计算机化社会控制(Societies of Control)(1992)的描述为出发点,使我们能够思考当今必要的道德行为。例如,道德行动可能涉及授权个人挑战不透明算法计算机网络的法律和规范,正如我们在关于解释权、算法的问责制和可解释性的辩论中所指出的那样。道德行动也可能努力实现自由的理想,以摆脱编码,成为“数学毁灭性武器”(O'Neil,2016)无法识别的东西,而这些武器越来越多地将我们定义、塑造和限制为个人,如数字自卫运动(Heuer&Tranberg,2013)。此类数据道德使命植根于生活在编码网络中的深刻个人体验,但也基于不断增长的社会和政治运动和情感(Hasselbalch&Tranberg,2016)。

关于不断演变的数据伦理辩论中所蕴含的权力动态,不仅在决策方面,而且在商业、技术和公共话语方面,还有许多有待探索和发展的地方。本文试图对数据伦理展开更具包容性和整体性的讨论,以推进对价值谈判、权利和权威分配以及冲突解决方式的调查和理解。

致谢

克拉拉;弗朗西斯科·拉彭塔(Francesco Lapenta)就数据伦理社会学进行了多次知情讨论;Jens-Erik Mai对本文草稿的深刻评论;DataEthics.eu团队的灵感来源。

工具书类

Angwin,J.,Larson,J.、Mattu,S.和Kirchner,L.(2016年5月23日)。机器偏见——全国各地都使用软件来预测未来的罪犯。它对黑人有偏见。Propublica公司。检索自https://www.propublica.org/article/machine-bias-risk assessments-in-creminal-qualing

Albrecht,J.P.(2017年1月26日)欧洲议会议员辩论:法规来了!现在怎么办?[video file]检索自https://www.youtube.com/watch?v=28EtlacwsdE

Bergson,H.(1988)。物质与记忆(N.M.Paul&W.S.Palmer,Trans.)纽约:Zone Books。

Bergson,H.(1998),创造性进化(A.Mitchell,译)。纽约州米诺拉:多佛出版社。

Bijker,W.E.、Hughes,T.P.和Pinch,T.(1987)。概述。在W.E.Bijker、T.P.Hughes和T.Pinch中。(编辑),技术系统的社会建构(第1-7页)。马萨诸塞州剑桥:麻省理工学院出版社。

Brey,P.(2000)。披露计算机道德。计算机与社会,30(4), 10-16. 数字对象标识:10.1145/572260.572264

Brey,P.(2010)。技术价值观和披露伦理。L.Floridi(编辑),剑桥信息与计算机伦理手册(第41-58页)。剑桥:剑桥大学出版社。

布迪厄,P.(1997)。实践理论纲要剑桥:剑桥大学出版社。

Boudieu,P.和Wacquant,L.(1992年)。对反思社会学的邀请剑桥:政治出版社。

Callon,M.(1987)。正在形成的社会:将技术作为社会学分析工具的研究。在Wiebe E.Bijker、Thomas P.Hughes和Trevor Pinch(编辑)中,技术系统的社会建构(第83-103页)。马萨诸塞州剑桥:麻省理工学院出版社。

Carr,J.(2015年12月13日)。我该笑、该哭还是该移民?[博客帖子]。从Desiderata检索https://johnc1912.wordpress.com/2015/12/13/should-i-laugh-cry-or-emigrate网站/

Clifford,J.(1997)。 路线:二十世纪末的旅行与翻译剑桥:哈佛大学出版社。

科恩,J.E.(2013)。隐私是为了什么。哈佛法律评论,126(7). 检索自https://harvardlawreview.org/2013/05/what-privacy-is-for/

丹麦商业管理局。(2018年3月12日)。丹麦政府任命了新的数据伦理专家组[新闻稿]。检索自https://eng.em.dk/news/2018/marts/the-danish-government-appoints-new-export-group-on-data-ethics

Deleuze,G.(1992)。关于控制社会的附言。59年10月第3-7页。检索自http://www.jstor.org/stable/778828

Deleuze,G.(1966年)。柏格森主义(H.Tomlinson,译)。纽约:Urzone Inc。

Edwards,P.(2002)。基础设施和现代性:社会技术系统历史中力量、时间和社会组织的规模。在Misa,T.J.、Brey,P.和A.Feenberg(编辑),现代性与技术(第185-225页)。马萨诸塞州剑桥:麻省理工学院出版社。

Ess,C.M.(2014)。数字媒体伦理英国剑桥:政治出版社

Flanagan,M.、Howe,D.C.和Nissenbaum,H.(2008)。体现技术价值——理论和实践。在J.van den Hoven和J.Weckert(编辑)中,信息技术与道德哲学(第322-353页)。英国剑桥:剑桥大学出版社。

Floridi,L.和Taddeo,M.(2016)。什么是数据道德?。英国皇家学会哲学汇刊A:数学、物理和工程科学,374(2083). 数字对象标识:10.1098/rsta.2016.0360

Friedman,B.和Nissenbaum,H.(1996)。计算机系统中的偏差。美国计算机学会信息系统汇刊,14(3), 330-347. 数字对象标识:10.1145/230538.230561

Frohmann,B.(2007)。福柯、德勒兹和数字网络伦理。R.Capurro、J.Frühbauer和T.Hausmaninger(编辑),互联网本地化。跨文化视角下的伦理问题(第57-68页)。慕尼黑:芬克。

Goffman,E.(1974)。框架分析:一篇关于经验组织的文章马萨诸塞州波士顿:东北大学出版社

Harvey,P.、Jensen,C.B.和Morita,A.(2017年)。导言:基础设施的复杂性。在P.Harvey、C.B.Jensen和A.Morita(编辑)中,基础设施和社会复杂性:伴侣。第1-22页。伦敦:劳特利奇。

Hasselbalch,G.和Tranberg,P.(2016年12月1日)。欧洲数据垄断的自由空间正在缩小。检索自Opendemocracy.nethttps://www.opendemocracy.net/gry-hasselbalch-pernille-tranberg/free-space-for-data-monopolies-in-europe-is-shuring

Hasselbalch,G.和Tranberg,P.(2016年9月27日)。个人数据存储想要赋予个人对其数据的控制权[博客帖子]。检索自DataEthics.euhttps://dataethics.eu/personal-data-store-will-give-individual-power-ther-data/

Hasselbalch,G.和Tranberg,P.(2016)。数据伦理。新的竞争优势哥本哈根:出版。

海森堡,D.(2005)。隐私谈判:欧盟、美国和个人数据保护。加利福尼亚州博尔德:Lynne Reinner出版社。

Heuer,S.和Tranberg,P.(2013年)。假的!数字自卫指南哥本哈根:Berlingske Media Forlag。

Hill,R.(2017年11月24日)。又一个没有牙齿的奇迹?为什么英国政府的数据道德中心需要影响力。登记册。检索自https://www.theregister.co.uk/2017/11/24/another_toothless_wonder_why_the_ukgovs_data_ethics_centre_needs_some_clout/

Hofmann,J.、Katzenbach,C.和Gollatz,K.(2016)。在协调和监管之间:在互联网治理中找到治理。新媒体与社会,19(9), 1406-1423. 数字对象标识:10.1177/1461444816639975

霍尔斯特,香港(2018年3月11日)。Regeringen vil lovgive om dataetik:det handler om,hvilket samfund viönsker[政府将对数据进行立法:这是关于我们想在社会中做什么]。贝林时报。检索自https://www.berlingske.dk/politik/regeringen-vil-lovgive-om-dataetik-det-handler-om-hvilket-samfund-vi-oensker网站

Hughes,T.P.(1987)。大型技术系统的演变。在W.E.Bijker、T.P.Hughes和T.Pinch(编辑)中,技术系统的社会建构(第51-82页)。马萨诸塞州剑桥:麻省理工学院出版社。

Ingold,T.(2000)环境感知:生活、居住和技能论文。伦敦:劳特利奇。

Introna,L.D.(2005)。披露道德和信息技术:披露面部识别系统。道德与信息技术,7(2), 75-86. 数字对象标识:2007年10月10日/10676-005-4583-2

Ingeniøren。(2018年3月16日)。开始对过度恋爱的布莱恩·米克尔森(Brian Mikkelsen)发怒[现在开始遵守法律,布莱恩·迈克尔森]。版本2。检索自https://www.version2.dk/artikel/leder-start-nu-med-at-overholde-loven-brian-mikkelsen-1084631

in’t,Veld,S.(2017年1月26日)。欧洲隐私平台[视频文件]。检索自https://www.youtube.com/watch?v=8_5cdvGMM网址-U型

Lauristin,M.(2017年1月26日)。欧洲议会议员辩论:法规在这里!现在怎么办?[视频文件]检索自:https://www.youtube.com/watch?v=28EtlacwsdE

Lyon,D.(2014)。监视、斯诺登和大数据:能力、后果和评论。大数据与社会,1(2). 数字对象标识:10.1177/2053951714541861

Lyon,D.(2010年)。液体监测:齐格蒙特·鲍曼对监测研究的贡献。国际政治社会学,4(4). (第325-338页)。数字对象标识:10.1111/j.1749-5687.2010.00109.x号

Mayer-Schonberger,V.和Cukier,K.(2013年)。大数据:一场将改变我们生活、工作和思维方式的革命伦敦:约翰·默里。

Meyrowitz,J.(1985)。没有位置感:电子媒体对社会行为的影响牛津:牛津大学出版社。

Mittelstadt,B.D.、Allo,P.、Taddeo,M.、Wachter,S.和Floridi,L.(2016)。算法伦理:映射辩论。大数据与社会是的,(2), 1-21. 数字对象标识:10.1177%2F2053951716679679

Moor,J.H.(1985)。什么是计算机伦理?元哲学,16(4), 266-275. 数字对象标识:10.1111/j.1467-9973.1985.tb00173.x

Nemitz,P.(2017年1月26日)欧洲隐私平台[视频文件]。检索自:https://www.youtube.com/watch?v=8_5cdvGMM-U型

O'Neil,C.(2016)。数学毁灭性武器纽约:企鹅图书。

Pasquale,F.(2015)。黑匣子社会——控制金钱和信息的秘密算法马萨诸塞州剑桥:哈佛大学出版社

Poikola,A.、Kuikkaniemi,K.和Honko,H.(2018)。Mydata–以人为中心的个人数据管理和处理的北欧模式[白皮书]。赫尔辛基:芬兰开放知识。检索自https://www.lvm.fi/documents/20181/859937/MyData-nordic-model/2e9b4eb0-68d7-463b-9460-821493449a63?版本=1.0

Pohle,J.、Hosl,M.和Kniep,R.(2016)。将互联网政策分析为一个斗争领域。互联网政策审查,5(3) 数字对象标识:10.14763/2016.3.412

Powles,J.(2015–2018)。Julia Powles【简介】。《卫报》。检索自https://www.theguardian.com/profile/julia-powles

Richards,N.M.和King J.H.(2014)。大数据道德。威克森林法律审查,49, 393- 432.

Richardson,J.(2015年12月10日)。欧洲通用数据保护法规草案:辩论。从介质中检索网址:https://medium.com/@janicerichardson/欧洲通用数据保护法规-traft-the-debate-8360e9ef5c1

Schultz,M.(2016年3月3日)技术极权主义、政治和民主[视频文件]检索自:https://www.youtube.com/watch?v=We5DylG4szM

Solove,D.J.(2008)。了解隐私剑桥:哈佛大学出版社。

Spiekermann,S.、Hampson P.、Ess,C.M.、Hoff,J.、Coeckelbergh,M.和Franckis,G.(2017年)。超人道主义的幽灵与存在感。,从隐私外科医生处检索http://privacysurgeon.org/blog/wp-content/uploads/2017/07/Human-manifesto_26_short-1.pdf

《卫报》。(2013年11月1日)。国家安全局棱镜计划幻灯片。《卫报》。检索自https://www.theguardian.com/world/interactive/2013/nov/01/prism-slides-nsa-document

Vestager,M.(2016年9月9日)。让数据为我们服务。检索自欧盟委员会https://ec.europa.eu/commission/commission公司/2014-2019/vestager/announcements/making-data-work-us_en视频可在网址:https://vimeo.com/183481796

de Wachter,M.A.M.(1997)。《欧洲生物伦理学公约》。黑斯廷斯中心报告,27(1), 13-23. 检索自https://onlinelibrary.wiley.com/doi/full/10.1002/j.1552-146X.1997.tb00015.x

Wagner,B.(2018)。道德作为逃避监管的一种方式:从道德清洗到道德跳跃?在M.Hildebrandt(编辑)中,正在分析。Cogitas Ergo Sum公司阿姆斯特丹:阿姆斯特丹大学出版社。检索自https://www.privacylab.at/wp-content/uploads/2018/07/Ben_Wagner_Ethics-as-an-Escape-from-Regulation_2018_BW9.pdf

Warman,M.(2012年2月8日)。欧盟隐私法规受到“前所未有的游说”。《每日电讯报》。检索自https://www.telegraph.co.uk/technology/news/9070019/EU-Privacy-regulations-subject-to-unprecedented-looking.html

Williams,R.(1993)。文化是普通的。在A.Gray和J.McGuigan(编辑)中,学习文化:入门级读者(第5-14页)。伦敦:爱德华·阿诺德。

Winner,L.(1980)。文物有政治吗?代达罗斯,109(1), 121-136. 检索自https://www.jstor.org/stable/20024652

Wong,S.(2009)《前线故事:与“嵌入式”研究团队合作的幼儿从业者的经历》。评估和项目规划,32(2), 99–108. 数字对象标识:2016年10月10日/j.evalprogplan.2008.10.003

Zuboff,S.(2016年3月5日)。监视资本主义的秘密。法兰克福汇报。检索自http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets-ofsurveillance-capitalism-14143616.html

Zuboff,S.(2014年9月9日)。数字声明。法兰克福汇报。检索自http://www.faz.net/aktuell/feuillon/doulten/the-digital-doulte/shoshan-zuboff-on-big-data-as-surveillance-capitalism-13152525.html

Zuboff,S.(2019年)。监督资本主义时代:在新的权力前沿为人类未来而战.伦敦;纽约:简介书;公共事务。

政策文件和报告

AI数字意大利工作队和机构。(2018).为公民服务的人工智能[白皮书]。检索自:https://libro-bianco-ia.readthedocs.io/en/latest/

欧洲委员会。(1997).在生物和医学应用方面保护人权和人类尊严公约:人权和生物医学公约。(《奥维耶多公约》)第164号条约。检索自https://www.coe.int/en/web/conventions/full-list/-/convenations/treaty/164

1995年10月24日欧洲议会和理事会关于在个人数据处理方面保护个人和此类数据自由流动的第95/46/EC号指令。检索自https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A31995L0046

EC高级专家组。(2018).值得信赖的人工智能道德准则草案工作文件,2018年12月18日(撰写本文时未发布最终文件)。检索自https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai

欧洲委员会。(2012年1月25日)。欧洲议会和理事会关于个人数据处理和此类数据自由流动方面的个人保护条例的提案(一般数据保护条例)。检索自http://www.europarl.europa.eu/registre/docs_autres_institutions/commission_europeenne.com/2012/0011/com_com(2012)0011_EN.pdf

欧洲委员会。(2018).委员会向欧洲议会、欧洲理事会、理事会、欧洲经济和社会委员会以及区域委员会发出的信函——人工智能协调计划(COM(2018)795最终版)。检索自https://ec.europa.eu/digital-single-market/en/news/coordinated-plan-artificial-intelligence

欧洲议会。(2019年2月12日)。2019年2月12日欧洲议会关于欧洲人工智能和机器人综合产业政策的决议(2018/2088(INI))。检索自http://www.europal.europa.eu/sides/getDoc.do?pubRef网址:http://www.europal.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2019-0081+0+DOC+PDF+V0//EN

2016年4月27日欧洲议会和理事会关于在个人数据处理方面保护自然人和此类数据自由流动的第2016/679号欧盟条例,以及废除第95/46/EC号指令(一般数据保护条例)。检索自https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1528874672298&uri=CELEX%3A32016R0679

英国政府(2018年1月25日)。数字化战略。检索自https://www.gov.uk/government/publications/digital-charter/digital-charter

欧洲数据保护主管(EDPS)。(2015).走向新的数字伦理数据尊严和技术。检索自https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_en.pdf

欧洲数据保护主管(EDPS)。道德咨询小组。(2018).走向数字道德。检索自https://edps.europa.eu/sites/edp/files/publication/18-01-25_eag_report_en.pdf

脚注

1在“欧洲”一词中,我不仅关注欧盟(EU),还关注不断谈判的文化背景,因此,我并不排除欧洲委员会等组织或《欧洲人权公约》等文书。

2告知文章的采访(匿名,所有录音,除了一个基于书面笔记,四个直接引用在文章中):两名政策顾问;四名欧洲机构官员;一名数据保护专员;欧洲委员会部长委员会一名欧洲国家代表;一位欧洲议员。

三。我是IEEE P7006个人数据AI代理标准的副主席。

4.我是该委员会12名指定成员之一(2018年)。

5我是该小组52名指定成员之一(2018-2020年)。

添加新评论