Academia.edu不再支持Internet Explorer。
要更快、更安全地浏览Academia.edu和更广泛的互联网,请花几秒钟时间升级浏览器.
输入您注册的电子邮件地址,我们将通过电子邮件向您发送重置链接。
2018年,《哈佛法律与技术杂志》
人们对《欧盟通用数据保护条例》中的“解释权”及其存在、优缺点进行了大量讨论。实施解释权,打开算法决策的“黑匣子”,面临着重大的法律和技术障碍。解释复杂算法决策系统的功能及其在特定情况下的基本原理是一个具有技术挑战性的问题。一些解释可能无法为数据主体提供有意义的信息,从而引发围绕其价值的问题。数据控制者有兴趣不披露有关其算法的信息,这些算法包含商业机密、侵犯他人的权利和自由(例如隐私)或允许数据主体进行游戏或操纵决策。对自动决策的解释不需要依赖于公众对算法系统如何工作的理解。尽管这种可解释性非常重要,而且应该追求,但原则上可以在不打开黑盒子的情况下提供解释。将解释视为帮助数据主体行动的一种手段,而不仅仅是理解,可以根据解释旨在支持的具体目标或行动来衡量解释的范围和内容。从受自动化决策影响的个人的角度来看,我们提出了三个解释目的:(1)告知并帮助个人理解为什么做出了特定的决定,(2)如果结果不理想,提供对决定提出质疑的理由,以及(3)根据当前的决策模型,了解需要改变什么才能在未来获得预期的结果。我们评估这些目标如何在GDPR中获得支持,以及它们在多大程度上依赖于打开“黑匣子”。我们建议数据控制者提供一种特殊类型的解释,即“无条件反事实解释”,以支持这三个目标。这些反事实解释描述了为获得理想结果或达到“最接近的可能世界”而对世界进行的最小改变。由于多个变量或多组变量可以导致一个或多个理想结果,因此可以提供多种反事实解释,对应于反事实所支持的附近可能世界的不同选择。反事实描述了对导致该决策的外部事实的依赖性,而无需传达算法的内部状态或逻辑。因此,反事实作为一种最低限度的解决方案,绕过了目前可解释性的技术限制,同时在透明度与他人的权利和自由(例如隐私、商业秘密)之间取得平衡。
桑德拉·瓦希特,布伦特·米特尔斯塔特,卢西亚诺·弗洛里迪
自2016年欧盟一般数据保护条例(GDPR)获得批准以来,人们广泛且反复地声称,自动或人工智能算法系统所做决策的“解释权”将由GDPR合法授权。这种解释权被视为加强自动决策的问责制和透明度的理想机制。然而,有几个理由怀疑这种权利的合法性和可行性。与其他地方声称的特定自动决策的解释权相反,GDPR只要求数据主体获得有关所涉及逻辑以及自动决策系统的重要性和预期后果的有限信息(第13-15条),我们称之为“知情权”。此外,第22条中包含的“不受自动决策约束的权利”的模糊性和有限范围(所谓的“解释权”来源于此)对数据主体的实际保护提出了疑问。这些问题表明,GDPR缺乏精确的语言以及明确和明确的权利和防范自动决策的保障措施,因此存在无牙的风险。我们提出了一些立法措施,如果采取这些措施,可能会在2018年GDPR生效时提高自动决策的透明度和问责制。
2023 •
海德尔·A·谢赫
随着自动决策和分析的使用越来越多,许多学者和个人都渴望为使用相同算法的个人对象提供足够的数据保护。为此,引入了GDPR,并与之形成了一个非正式共识,即存在一种针对算法所做决策的“解释权”。本文将探讨所有支持和反对“解释权”是否存在的论点,并试图反驳为限制解释权范围而提出的主张。它将从本质上说,对第13-15条和第22条采用GDPR第71条进行开放和自由的解释不仅是可能的,而且是条款中设想的,而且也是数据主体能够真正得到保护,免受机器偏见和个人数据滥用等伤害的唯一途径。它将认为,这一权利可以与数据控制者在保护其商业秘密方面的保护同时存在,并讨论某些成员国是如何做到这一点的。它将讨论无论措辞如何,都需要研究和扩大权利的实质,这也是当局在解释条款时提供的指导方针所设想的。最后,本文认为,自由解释对数据主体和控制者都有利,以避免未来的负债,并充分实施GDPR引入所设想的保护。
人工智能杂志
2017 •
布莱斯·古德曼
我们总结了欧盟新的通用数据保护法规对机器学习算法的常规使用的潜在影响。预计将于2018年在整个欧盟生效,它将限制“显著影响”用户的自动个人决策(即根据用户级预测因素做出决策的算法)。该法律还将有效地创造一种“解释权”,用户可以借此要求解释关于他们的算法决策。我们认为,虽然这项法律将给行业带来巨大挑战,但它突出了计算机科学家在设计算法和评估框架方面发挥带头作用的机会,这些算法和框架可以避免歧视,并可以进行解释。
阿尔希夫
2016 •
我们总结了欧盟新的通用数据保护法规对机器学习算法的常规使用的潜在影响。预计将于2018年在整个欧盟生效,它将限制“显著影响”用户的自动个人决策(即根据用户级预测因素做出决策的算法)。该法律还将创造一种“解释权”,用户可以借此要求对自己的算法决策进行解释。我们认为,虽然这项法律将给行业带来巨大挑战,但它强调了机器学习研究人员有机会率先设计避免歧视的算法和评估框架。
法律与商业
2021 •
Giancladio Malgieri公司
本文认为,如果我们想要一个理想的人工智能系统的可持续环境,我们不仅应该以透明、可解释、公平、合法和负责任的算法为目标,还应该寻求“公正”的算法,即:,自动决策系统包括上述所有品质(透明度、可解释性、公平性、合法性和问责制)。这可以通过一个实际的“理由”陈述和过程(最终来自算法影响评估)来实现,通过该陈述和过程,数据控制者可以实际证明为什么人工智能系统不公平、不歧视、不模糊、不非法等。换言之,这种理由(最终来源于对人工智能系统的数据保护影响评估)证明了该系统在所有数据保护原则(公平、合法、透明、目的限制、数据最小化、准确性、存储限制、完整性和问责制)方面的合法性。。。。
企业伦理季刊
金泰万
企业越来越依赖于作为决策规则的数据训练集的算法,以便在很少或没有人工干预的情况下实现决策。在本文中,我们为算法决策产生“解释权”的说法提供了哲学基础。我们的论点是,通过重新思考人工智能时代的知情同意权,我们可以解决算法透明度的大部分问题。人们常说,在数字时代,知情同意已死。这种消极观点源于一种僵化的理解,认为知情同意是一种静态的、完整的交易,个人自主是其道德基础。这样的观点是不够的,尤其是当数据以次要、非文本和不可预测的方式使用时,这是高级人工智能系统不可避免的本质。我们认为,知情同意的另一种观点——作为对不完整交易的信任保证——允许理解为什么知情同意的理由已经包含事后解释权。
约书亚·西蒙斯
社会科学研究网
弗朗西丝卡·拉吉奥亚
企业越来越依赖于作为决策规则的数据训练集的算法(即通常称为“机器学习”的过程的输出),并在很少或没有人工中介的情况下实现决策。在本文中,我们为算法决策产生“解释权”的说法提供了哲学基础。人们常说,在数字时代,知情同意已死。这种消极观点源于一种僵化的理解,即假定知情同意是一种静态和完整的交易。这种观点是不够的,尤其是当数据以次要、非文本和不可预测的方式使用时,这是高级人工智能系统不可避免的本质。我们认为,将知情同意作为对不完整交易的信任保证的另一种观点,有助于理解为什么知情同意的理由已经包含事后解释的权利。
SSRN电子期刊
拉克兰·厄克哈特
正在加载预览
对不起,预览当前不可用。你可以点击上面的按钮下载论文。
2023年ACM公平、问责制和透明度会议
卢卡·纳尼尼
机器学习与知识提取
2022 •
尼古拉斯·阿舍
大卫·温伯格
加布里埃尔·马齐尼
奇亚拉·加莱斯
2020 •
麦肯·安德鲁斯
计算机科学课堂讲稿
Chinara Gasimova公司
埃姆雷·巴亚姆奥卢
新加坡法律学会期刊
助理主任缪欣伟
2018 •
弗朗科·图里尼
阿德洛拉·伊库马帕伊·内森
CPR LATAM 2019年会议
2019 •
亚历山大·维罗内塞
环境智能与智能环境杂志
Gizem Gültekin Varkonyi公司
arXiv(康奈尔大学)
克里斯蒂娜·鲍皮尼
理查德·华纳
第14届智能体与人工智能国际会议论文集
亚历山德罗·卡斯特尔诺沃
Metaverse杂志
Metaverse杂志,Khaleque Insia公司
巴西法律技术与创新杂志
阿拉娜·恩格尔曼
人工智能(&;A);社会
克里斯蒂安·莫亚诺
哥伦比亚商法评论
桑德拉·瓦希特,布伦特·米特尔斯塔特
萨希尔·维尔玛
康奈尔大学-arXiv
28人工智能与法律
菲利普·哈克