@正在进行{tenney-etal-2020语言,title=“语言解释工具:{NLP}模型的可扩展交互式可视化和分析”,author=“Tenney、Ian和韦克斯勒、詹姆斯和Bastings、Jasmijn和Bolukbasi、Tolga和科宁、安迪和Gehrmann、Sebastian和江、艾伦和Pushkarna、Mahima和Radebaugh、Carey和Reif、Emily和安·袁”,editor=“刘、群和David Schlangen”,booktitle=“2020年自然语言处理实证方法会议论文集:系统演示”,月份=十月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.emnlp-demos.15”,doi=“10.18653/v1/2020.emnlp演示.15”,pages=“107--118”,abstract=“我们展示了语言可解释性工具(LIT),这是一个用于NLP模型可视化和理解的开源平台。我们关注关于模型行为的核心问题:为什么我的模型会做出这样的预测?它什么时候表现不佳?在输入的受控变化下会发生什么?”?LIT将本地解释、聚合分析和反事实生成集成到一个基于浏览器的简化界面中,以实现快速探索和错误分析。我们包括一系列不同工作流的案例研究,包括探索情绪分析的反事实,测量共指系统中的性别偏见,以及探索文本生成中的局部行为。LIT支持广泛的模型{---},包括分类、seq2seq和结构化预测{---{},并且通过声明性的框架-认知API具有高度的可扩展性。LIT正在积极开发中,代码和完整文档可从\url{https://github.com/pair-code/LIT}获得。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“tenney-etal-2020-language”><标题信息>语言解释工具:NLP模型的可扩展交互式可视化和分析</titleInfo><name type=“personal”>伊恩坦尼<角色>作者</角色></name><name type=“personal”>詹姆斯韦克斯勒<角色>作者</角色></name><name type=“personal”>Jasmijn贝斯廷斯<角色>作者</角色></name><name type=“personal”>托尔加博卢克巴西<角色>作者</角色></name><name type=“personal”>安迪科宁<角色>作者</角色></name><name type=“personal”>塞巴斯蒂安盖尔曼<角色>作者</角色></name><name type=“personal”>艾伦江<namePart type=“family”><角色>作者</角色></name><name type=“personal”>马希玛Pushkarna<角色>作者</角色></name><name type=“personal”>凯莉<namePart type=“given”>拉德堡<角色>作者</角色></name><name type=“personal”>艾米丽Reif<角色>作者</角色></name><name type=“personal”>安元<角色>作者</角色></name><originInfo><发布日期>2020-10</发布日期></originInfo><typeOfResource>文本</typeOfResource><relatedItem type=“主机”><标题信息>2020年自然语言处理实证方法会议记录:系统演示</titleInfo><name type=“personal”><namePart type=“given”>群</namePart>刘<角色>编辑器</角色></name><name type=“personal”>大卫<namePart type=“family”>施兰根</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>我们介绍了语言解释工具(LIT),这是一个用于可视化和理解NLP模型的开源平台。我们关注关于模型行为的核心问题:为什么我的模型会做出这样的预测?什么时候表现不佳?在输入的受控变化下会发生什么?LIT将本地解释、聚合分析和反事实生成集成到一个基于浏览器的简化界面中,以实现快速探索和错误分析。我们包括一系列不同工作流的案例研究,包括探索情绪分析的反事实,测量共指系统中的性别偏见,以及探索文本生成中的局部行为。LIT支持广泛的模型,包括分类、seq2seq和结构化预测,并且通过一个声明性的框架识别API具有高度的可扩展性。LIT正在积极开发中,代码和完整文档可在https://github.com/pair-code/lit。</摘要>tenney-etal-2020语言10.18653/v1/2020。emnlp-demos.15<位置><网址>https://aclantology.org/2020.emnlp-demos.15</url></位置><部分>2020-10年<日期><扩展单元=“page”><开始>107</开始><end>118</范围></部分></mods></modsCollection>
%0会议记录%语言可解释性工具:NLP模型的可扩展交互式可视化和分析%伊恩·坦尼%詹姆斯·韦克斯勒%A Bastings,贾斯米恩%A Bolukbasi,托尔加%安迪·科宁%塞巴斯蒂安·盖尔曼%阿江,艾伦%马希玛·普什卡纳%A Radebaugh,凯莉%艾米丽·雷夫%安,A元%Y Liu,群%Y Schlangen,大卫%2020年自然语言处理实证方法会议论文集:系统演示%D 2020年%10月8日%计算语言学协会%C在线%F tenney-etal-2020语言%我们介绍了语言解释工具(LIT),一个用于可视化和理解NLP模型的开源平台。我们关注模型行为的核心问题:为什么我的模型会做出这种预测?它什么时候表现不佳?在输入的受控更改下会发生什么?LIT将本地解释、聚合分析和反事实生成集成到一个基于浏览器的简化界面中,以实现快速探索和错误分析。我们包括一组不同工作流程的案例研究,包括探索情绪分析的反事实,测量共指系统中的性别偏见,以及探索文本生成中的局部行为。LIT支持广泛的模型,包括分类、seq2seq和结构化预测,并且通过一个声明性的框架识别API具有高度的可扩展性。LIT正在积极开发中,代码和完整文档可在https://github.com/pair-code/lit。%R 10.18653/v1/2020.emnlp-demos.15号文件%U型https://aclantology.org/2020.emnlp-demos.15%U型https://doi.org/10.18653/v1/2020.emnlp-demos.15%电话:107-118
降价(非正式)
[语言可解释性工具:NLP模型的可扩展交互式可视化和分析](https://aclantology.org/2020.emnlp-demos.15)(Tenney等人,EMNLP 2020)
国际计算语言学协会
- 伊恩·坦尼(Ian Tenney)、詹姆斯·韦克斯勒(James Wexler)、贾斯米恩·巴斯廷斯(Jasmijn Bastings)、托尔加·博鲁巴西(Tolga Bolukbasi)、安迪·科宁(Andy Coenen)、塞巴斯蒂安·盖尔曼(Sebastian Gehrmann)、江爱伦(Ellen Jiang)、马。2020语言可解释性工具:NLP模型的可扩展交互式可视化和分析.英寸2020年自然语言处理实证方法会议记录:系统演示,第107–118页,在线。计算语言学协会。