@进行中{lal-etal-2021-解释,title=“{I}interpre{T}:解释变形金刚的交互式可视化工具”,author=“拉尔、瓦苏提夫和Ma、Arden和阿夫拉洛、埃斯特尔和霍华德、菲利普和Simoes、Ana和科拉特、丹尼尔和佩雷格、奥伦和辛格、加迪和瓦瑟布拉特(Wasserblat,Moshe)”,editor=“Gkatzia、Dimitra和Djam的Seddah”,booktitle=“计算语言学协会欧洲分会第十六届会议记录:系统演示”,月份=4r,年=“2021”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2021.eacl演示.17”,doi=“10.18653/v1/2021.eacl-demos.17”,pages=“135--142”,摘要=“随着基于Transformer的模型在NLU/NLP任务中的应用越来越广泛,人们对理解这些模型的内部工作机制、为什么它们在广泛的任务中如此有效以及如何进一步调整和改进这些模型越来越感兴趣。为了实现增强可解释性和理解性的目标,我们建议ent-InterpleT,一个交互式可视化工具,用于解释基于Transformer的模型。除了提供用于调查一般模型行为的各种机制外,InterpreT中做出的新贡献还包括通过Transformer的每一层跟踪和可视化标记嵌入的能力,通过图解突出某些标记嵌入之间的距离,并使用新的指标确定注意力主管的任务相关功能。InterpreT是一个与任务无关的工具,它的功能通过对两个不同任务的模型行为的分析来演示:基于方面的情感分析(ABSA)和Winograd模式挑战(WSC)。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“lal-etal-2021-interpret”><标题信息>解释:解释变形金刚的交互式可视化工具</titleInfo><name type=“personal”>瓦苏提夫<namePart type=“family”>Lal</namePart><角色>作者</角色></name><name type=“personal”>雅顿<namePart type=“family”>马</namePart><角色>作者</角色></name><name type=“personal”>埃斯特尔<namePart type=“family”>Aflalo</namePart><角色>作者</角色></name><name type=“个人”>菲利普霍华德<角色>作者</角色></name><name type=“personal”>安娜西蒙斯<角色>作者</角色></name><name type=“personal”>丹尼尔科拉特<角色>作者</角色></name><name type=“personal”>奥伦佩雷格<角色>作者</角色></name><name type=“personal”>加迪<namePart type=“family”>歌手</namePart><角色>作者</角色></name><name type=“personal”>Moshe Moshe瓦瑟布拉特<角色>作者</角色></name><originInfo>2021-04发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会欧洲分会第16届会议记录:系统演示</titleInfo><name type=“personal”>迪米特拉格卡齐亚<角色>编辑器</角色></name><name type=“personal”>DjameSeddah(塞达)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem><abstract>随着基于Transformer的模型在NLU/NLP任务中的日益广泛使用,人们对理解这些模型的内部工作机制、为什么它们在广泛的任务中如此有效以及如何进一步调整和改进这些模型的兴趣与日俱增。为了实现增强可解释性和理解性的目标,我们推出了InterpreT,一种用于解释基于Transformer的模型的交互式可视化工具。除了提供用于调查一般模型行为的各种机制外,InterpreT中做出的新贡献还包括通过Transformer的每一层跟踪和可视化标记嵌入的能力,通过图解突出某些标记嵌入之间的距离,并使用新的指标确定注意力主管的任务相关功能。InterpreT是一个任务不可知的工具,其功能通过分析两个不同任务的模型行为来展示:基于方面的情绪分析(ABSA)和Winograd模式挑战(WSC)</摘要>lal-etal-2021-解释10.18653/v1/2021.eacl-demos.17<位置><网址>https://aclantology.org/2021.eacl-demos.17</url></位置><部分><日期>2021-04</日期><扩展单元=“page”><开始>135</开始><结束>142</范围></部分></mods></modsCollection>
%0会议记录%T InterpreT:一种用于解释变形金刚的交互式可视化工具%瓦苏提夫·阿拉尔%阿玛,雅顿%阿夫拉罗,埃斯特尔%菲利普·霍华德%A Simoes,安娜%丹尼尔·科拉特%奥伦·佩雷格%歌手加迪%A Wasserblat,莫舍%迪米特拉·尤卡齐亚%Y Seddah,Djamé%计算语言学协会欧洲分会第16届会议记录:系统演示%D 2021年%4月8日%计算语言学协会%C在线%F lal-etal-2021-解释%X随着基于Transformer的模型在NLU/NLP任务中的应用越来越广泛,人们对理解这些模型的内部工作机制、为什么它们在广泛的任务中如此有效以及如何进一步调整和改进这些模型越来越感兴趣。为了实现增强可解释性和理解性的目标,我们推出了InterpreT,一种用于解释基于Transformer的模型的交互式可视化工具。除了提供用于调查一般模型行为的各种机制外,InterpreT中做出的新贡献还包括通过Transformer的每一层跟踪和可视化标记嵌入的能力,通过图解突出某些标记嵌入之间的距离,并使用新的指标确定注意力主管的任务相关功能。InterpreT是一个与任务无关的工具,它的功能通过对两个不同任务的模型行为的分析来演示:基于方面的情感分析(ABSA)和Winograd模式挑战(WSC)。%R 10.18653/v1/2021.eacl-demos.17号文件%U型https://aclantology.org/2021.eacl-demos.17%U型https://doi.org/10.18653/v1/2021.eacl-demos.17%第135-142页
降价(非正式)
[InterpreT:解释变形金刚的交互式可视化工具](https://aclantology.org/2021.eacl-demos.17)(Lal等人,EACL 2021)
国际计算语言学协会
- Vasudev Lal、Arden Ma、Estelle Aflalo、Phillip Howard、Ana Simoes、Daniel Korat、Oren Pereg、Gadi Singer和Moshe Wasserblat。2021InterpreT:解释变形金刚的交互式可视化工具.英寸计算语言学协会欧洲分会第16届会议记录:系统演示,第135–142页,在线。计算语言学协会。