• 语料库ID:227247585

“一个冷漠的技术决策者”:人工智能能提供解释性、协商性和人性吗?

@第{Woodruff2020ACT条,title={“一个冷漠的技术决策者”:人工智能能提供解释性、协商性和人性吗?},author={Allison Woodruff、Yasmin Asare Anderson、Katherine Jameson Armstrong、Marina Gkiza、Jay Jennings、Christopher Moessner、Fernanda B.Vi gas、Martin Wattenberg、Lynette Webb、Fabian Wrede和Patrick Gage Kelley},日志={ArXiv},年份={2020年},体积={abs/2012.00874},网址={https://api.semanticscholar.org/CorpusID:227247585}}
本文介绍了算法决策的定性研究,包括在芬兰、德国、英国和美国举办的五个研讨会,共有60名参与者,这些研讨会将人工智能视为遵循严格标准并出色执行机械任务的决策者,但基本上无法进行主观或道德上复杂的判断。

本文中的表格

什么是官僚反事实?美国社会政策中的分类优先与算法优先

有人认为,现有关于算法在社会政策中的作用的研究可以从一个反事实的角度获益,该角度提出了这样的问题:鉴于社会服务官僚机构需要就帮助谁做出一些决定,那么算法将取代什么样的现状优先排序方法?

加密作为算法管理的一个透镜:以Gig-Workers在Instacart工作中的歧义体验为例

这项工作通过Instacart员工的账户研究了Instacard工作中的平台-员工关系,并确定了模糊性的来源和类型,这些模糊性为员工带来了开放式体验,对按需工作平台中的问责制产生了影响。

“因为人工智能是100%正确和安全的”:用户态度和印度人工智能权威的来源

通过对印度32次访谈和459名调查对象的调查,调查了印度对人工智能系统的看法,以发现人工智能权威的案例——人工智能具有合法的权力来影响人类行为,而无需对系统的能力提出足够的证据。

调查从业者如何使用人性化AI指南:对People+AI指南的案例研究

据发现,从业者希望更多地支持早期构思和问题制定,以避免AI产品失败,以及对旨在帮助从业者设计AI产品的未来资源的影响。

学习XAI:缩小“新”和“老”专家之间的数字鸿沟

本文概述了如何定制XAI界面设计以具有持久教育价值的策略,以及有助于在无缝解释和认知引人入胜的解释之间找到平衡的间歇性解释方法。

不打开黑匣子的反事实解释:自动决策和GDPR

有人建议,数据控制者应该提供一种特殊类型的解释,即无条件的反事实解释,以支持这三个目标,这三个目标描述了世界的最小变化,可以用来获得理想的结果,或者到达尽可能接近的世界,无需解释系统的内部逻辑。

循环决策算法的原理和局限性

结果突出表明,迫切需要将算法决策辅助工具的分析扩展到评估模型本身之外,以调查人与算法交互的完整社会技术环境。

解释作为支持算法透明性的机制

一项在线实验关注解释脸书新闻推送算法的不同方式如何影响参与者对新闻推送的信念和判断。该实验发现,所有解释都使参与者更加了解系统的工作原理,并帮助他们确定系统是否有偏见,以及他们是否能够控制所看到的内容。

二元治理:从GDPR的算法问责制方法中吸取的教训

算法现在被用于对个人做出重大决策,从信贷决定到雇佣和解雇。但它们在很大程度上不受美国法律的监管。快速增长的文学

为什么一般数据保护法规中不存在自动决策解释权

这些问题表明,GDPR缺乏精确的语言,也缺乏明确明确的权利和防范自动决策的保障措施,因此面临着无牙的风险。

后果性决策的模型认知反事实解释

这项工作以形式验证的标准理论和工具为基础,提出了一种新的算法来解决一系列可满足性问题,其中距离函数(目标)和预测模型(约束)都表示为逻辑公式。

算法权威:解释、决策和管理算法的伦理、政治和经济学

该小组将汇集量化自我、医疗保健、数字劳动、社交媒体和共享经济的研究人员,以深化多个领域中关于算法权威的伦理、政治和经济学的新兴论述。

可解释机器的直觉吸引力

研究表明,机器学习模型既可以是不可预测的,也可以是非直观的,并且这些模型具有相关但不同的属性。

“可怕的机器人”:调查公众对人工智能的反应

总体结果表明,对人工智能影响的最常见看法引发了显著的焦虑,而就人工智能的部署进行谈判将需要克服这些焦虑。

塑造我们的工具:可竞争性是促进专业领域负责任的算法决策的一种手段

有人认为,与当前的框架相比,专注于可竞争性的方法能够更好地促进专业人员持续、积极地参与算法系统。
...