用于可解释人工智能的交互式自然语言技术第二次研讨会

何塞·M·阿隆索,亚历杭德罗·加泰罗亚 (编辑)


选集ID:
2020.nl4xai-1号机组
月份:
十一月
年份:
2020
地址:
爱尔兰都柏林
地点:
NL4XAI公司
SIG公司:
SIGGEN公司
出版商:
计算语言学协会
网址:
https://aclantology.org/2020.nl4xai-1
内政部:
Bib导出格式:
BibTeX公司 MODS XML 尾注
PDF格式:
https://aclantology.org/2020.nl4xai-1.pdf

pdf格式围兜
用于可解释人工智能的交互式自然语言技术第二次研讨会
何塞·M·阿隆索|亚历杭德罗·加泰罗亚

pdf格式围兜
自动解释健康信息
埃米尔·科拉默

现代人工智能系统使用复杂的统计模型自动从数据中学习。因此,解释这些系统如何工作以及如何进行预测越来越需要描述不同概率的权重以及这些数字背后的不确定性。但是,(自动)呈现这种概率解释的最佳方式是什么?人们真的理解它们吗?这些信息对人们福祉的潜在影响是什么?在这次演讲中,我将在自动生成个性化健康信息的系统的背景下解决这些问题。大型国家健康登记机构的出现,如荷兰癌症登记机构,现在可以根据可比患者的数据,包括不同治疗后的健康和生活质量预测,自动生成新癌症患者治疗方案的描述。我描述了一系列的研究,在这些研究中,我们的团队调查了这些信息目前提供给人们的程度,以及人们实际上希望在什么条件下获得这些数据驱动的解释。此外,我们还研究了信息需求中是否存在不同的特征,以及向人们提供概率信息和相关不足的最佳方式。

pdf格式围兜
中的偏差人工智能-系统:多步骤方法
埃里尼·恩图西

通过人工智能和(大)数据支持的基于算法的决策已经渗透到人类生活的几乎所有领域,从内容推荐和医疗保健到预测性警务和自动驾驶,随时随地都深深影响着每个人。虽然技术允许在昂贵的人类决策自动化方面进行以前难以想象的优化,但该技术可能带来的风险也很高,导致公众越来越担心该技术对我们生活的影响。负责任的人工智能领域最近出现,旨在通过考虑决策系统的公平性、可靠性和隐私性等方面,将人类置于基于人工智能的系统的中心。在这次谈话中,我们将重点讨论公平方面。我们将从了解偏见的许多来源开始,以及偏见如何进入学习过程的每个步骤,甚至如何从前面的步骤中传播/放大。我们将继续介绍减少偏差的方法,这些方法通常侧重于流水线的某个步骤(数据、算法或结果),以及为什么在每个步骤和整个(机器)学习流水线中以偏差为目标很重要。我们将通过讨论与偏见相关的责任问题,特别是通过偏见感知的数据收集、处理和算法选择以及通过解释进行追溯性考虑,来结束本次演讲。

pdf格式围兜
客户关怀领域解释请求的内容选择
卢卡·安塞尔马|米尔科·迪·拉西奥|达里奥·马纳|亚历山德罗·马泽伊|曼努埃拉·桑吉内蒂

本文描述了为客户关怀领域设计的对话系统中用于生成解释的内容选择模块。首先,我们描述了对话语料库的构建,其中包含客户对电信公司虚拟代理的解释请求,其次,我们研究并形式化了特定信息内容对生成消息的重要性。特别是,我们在图式知识库的情况下调整了重要性和相关性的概念。

pdf格式围兜
E类x个TRA公司:可解释的治疗相关注释
Mat Rawsthorne公司|塔希·吉拉尼|雅各布·安德鲁斯|云飞龙|杰雷米·克洛斯|塞缪尔·马林斯|丹尼尔·亨特

本文报道了一种新的可解释人工智能(XAI)计划的进展,该计划应用自然语言处理(NLP)和协同设计元素开发文本分类器,用于心理治疗培训。该任务是开发一种工具,通过自动标记转录文本,为已知心理过程中患者激活的交互水平,使用XAI增加他们对模型建议和客户轨迹预测的信任,从而帮助治疗师审查他们的疗程。在对从专业注释的治疗会话记录中提取的语言特征进行预处理后,我们应用监督机器学习方法(CHAID)对交互标签(阴性、中性、阳性)进行分类。加权样本用于克服类不平衡数据。结果表明,该初始模型能够以74%的准确率对患者激活的三个标签进行有效区分,并提供对其推理的见解。这个正在进行的项目还将评估哪些XAI方法可以用来增加工具对最终用户的透明度,探索利益相关者的直接参与是否可以提高XAI界面的可用性,从而提高对解决方案的信任。

pdf格式围兜
自然语言管道、神经文本生成和可解释性
朱丽叶·费勒|阿尔伯特·盖特|克莱尔·加登

数据到文本生成的端到端编码器-解码器方法通常是黑匣子,其预测难以解释。将端到端模型分解为子模块是解决此问题的自然方法。传统的神经前自然语言生成(NLG)流水线提供了一个分解端到端编码器-解码器的框架。我们综述了最近一些将传统NLG子模块集成到神经方法中的论文,并分析了它们的可解释性。我们的调查是建立可解释的神经NLG模型的第一步。

pdf格式围兜
利用自然语言生成解释黑盒模型
埃托雷·马里奥蒂|何塞·M·阿隆索|阿尔伯特·盖特

许多机器学习技术的不透明性阻碍了在高风险场景中广泛采用功能强大的信息处理工具。新兴领域可解释人工智能(XAI)旨在为自动决策系统提供理由,以确保用户的可靠性和可信度。为了实现这一愿景,我们强调自然语言文本形态作为未来智能交互代理的关键组件的重要性。我们概述了XAI面临的挑战,并回顾了一组在这方面发挥作用的出版物。

pdf格式围兜
解释B类自然语言中的阿耶斯网络:现状和挑战
康纳轩尼诗|阿尔贝托·布加林|埃胡德·雷特

为了增加人们对贝叶斯网络使用的信任,并巩固其作为模型的作用,以帮助关键决策,必须面对可解释性的挑战。以前解释贝叶斯网络的尝试主要集中在图形或视觉辅助工具上。在本文中,我们旨在强调自然语言方法对解释的重要性,并讨论贝叶斯网络文本解释的一些先前和最新尝试。我们概述了贝叶斯网络自然语言解释的生成和验证中仍需解决的几个挑战。这可以为贝叶斯网络的自然语言解释的未来工作提供参考。

pdf格式围兜
使用因果关系解释数据B类阿耶斯网络
詹姆·塞维利亚

我介绍了因果贝叶斯网络作为表示和解释概率因果关系的形式主义,回顾了学习因果贝叶斯网络的最新进展,并建议和说明了受图形因果标准启发研究因果关系成对识别的研究途径。

pdf格式围兜
生成逻辑公式的有效解释:挑战和策略
亚历山大·梅恩|基斯·范·迪姆特

虽然从逻辑公式生成自然语言的问题由来已久,但迄今为止,很少有人关注如何确保生成的解释对用户最有效。我们讨论了与决定这种输出应该是什么样以及解决这些问题的策略有关的问题。我们强调通过语用学和认知科学对逻辑理解的读者研究和发现,为逻辑公式的NL解释生成提供信息的重要性。然后,我们使用命题逻辑公式生成的简单演示系统输出来说明所讨论的问题和解决这些问题的潜在方法。

pdf格式围兜
可解释人工智能的论证理论框架
马蒂恩·德莫林|库拉特·乌尔·艾恩·沙欣|Katarzyna Budzynska公司|Carles Sierra公司

本文讨论了四个主要的论证理论框架,以支持可解释人工智能(XAI)。我们认为这些框架对于以系统为中心和以用户为中心的XAI都是有用的工具。前者关注人工智能系统所做决策的解释生成,而后者关注向用户提供解释以及用户接收解释的方式。

pdf格式围兜
推荐系统中认知偏差的自然语言缓解策略
艾莉莎·里格|玛丽·特休恩|纳瓦·廷塔列夫

在消费由推荐系统过滤的在线信息的背景下,认知偏差可能导致次优选择。减轻这种偏见的一种方法是通过界面和交互设计。本调查回顾了推荐系统用户在两个过程中的认知偏差缓解研究:1)项目选择和2)偏好激发。它强调了自然语言生成研究在缓解认知偏见方面的一些有希望的方向,包括:个性化以及透明度和控制的需要。

pdf格式围兜
何时解释:识别人机交互中的解释触发器
利亚·克劳斯|派克·沃森

随着部署了比以往更多的代理,用户需要能够以有效且舒适的方式与他们进行交互和合作。已经证明,解释可以增加用户在人机交互中的理解和信任。已经有许多研究调查了这种影响,但它们依赖于用户明确要求解释。我们首先概述了何时应该触发解释,并表明如果代理只依赖于直接问题,那么会错过许多实例。为此,我们区分命令或问题等直接触发器,并引入混淆或不确定性检测等间接触发器。

pdf格式围兜
从解释和演示中学习:初步研究
西尔维娅·图利|塞巴斯蒂安·沃尔科特|安娜·佩娃|弗朗西斯科·梅洛|穆罕默德·切图阿尼

人工智能在越来越多的系统中越来越突出,因此,在这些系统中对可解释性的渴望也越来越突出。为了构建可解释的系统,现有研究的很大一部分使用了各种自然语言技术,例如文本到语音机制或字符串可视化。在这里,我们通过回顾现有文献,概述了与自然语言解释相关的挑战。此外,我们还讨论了强化学习中可解释性与知识转移的关系。我们认为,解释性方法,特别是对解释接受者建模的方法,可能有助于提高样本效率。为此,我们提出了一种计算方法,使用另一个代理的解释来优化学习者的表现,并根据对人类的有效自然语言解释来讨论我们的结果。

pdf格式围兜
认知机器人体系结构中动作失败的生成解释
拉文娜·蒂尔斯特罗姆|安东尼奥·罗克|Meia Chita-Tegmark公司|马蒂亚斯·舍伊茨

我们描述了一种生成机器人动作失败原因解释的方法,重点关注由认知机器人架构运行的机器人的考虑因素。我们定义了一组失败类型和解释模板,通过使用动作脚本和可解释的信念状态的认知体系结构的需求和约束来激发它们,并在此背景下描述了内容实现和表面实现。然后,我们描述了一个评估,该评估可以扩展到进一步研究改变解释模板的效果。