第五 黑匣子NLP@EMNLP 2022年:阿拉伯联合酋长国阿布扎比(混合型)
贾斯米恩·巴斯廷斯 , 约纳坦·贝林科夫 , 亚奈·埃拉扎尔 , Dieuwke Hupkes公司 , 纳奥米·萨弗拉 , 莎拉·威格列夫 :
第五届BlackboxNLP神经网络分析与解释研讨会论文集, 黑匣子NLP@EMNLP 2022年,阿拉伯联合酋长国阿布扎比(混合),2022年12月8日。 计算语言学协会 2022 ,国际标准图书编号 978-1-959429-05-0 爱丽丝·海因 , 克劳斯·迪波尔德 :
gSCAN上组合泛化的一个极小模型。 1-15 尼古拉·德曹 , 利昂·施密德 , Dieuwke Hupkes公司 , 伊万·蒂托夫 :
不同掩蔽语言模型中的稀疏干预。 16-27 穆希兰·穆图帕里 , 萨姆拉特·哈尔德 , 阿萨德·B·赛义德 , 尤瓦尔·马顿 :
合成语义的表征学习和主题匹配案例在哪里。 28-39 苏尼特·巴塔查里亚 , 维勒姆·佐哈尔 , Ondrej Bojar公司 :
句子歧义、语法和复杂性探究。 40-50 基伦·戴布 , 张宣 , 杜凯文(Kevin Duh) :
用可解释的升压机对变压器超参数进行事后解释。 51至61 宁石 , 王博信 , 王伟(音译) , 刘香玉 , 周汉林 :
通过有意义的学习重温系统概括。 62-79 马克西姆·德布鲁恩 , 伊桑·洛菲 , 杰斯卡·布赫曼 , 沃尔特·戴尔曼斯 :
它比网球小吗? 语言模型玩二十个问题的游戏。 80-90 艾哈迈德·阿卜杜拉利 , 纳迪尔·杜拉尼 , 法希姆·达维 , 哈桑·萨贾德 :
阿拉伯变压器模型的事后分析。 91-103 汶川慕 , 林关慧(Kwan Hui Lim) :
总结评分的普遍回避攻击。 104-118 赫萨姆·阿米尼 , 莱拉·科赛姆 :
注意力有多忠实? 119-130 拉斯穆斯·科尔根森 , 菲亚米塔·卡卡瓦莱 , 克里斯蒂安·伊格尔 , 安德斯·索加德 :
出于正确的原因,多语言情感模型同样正确吗? 131-141 大卫·K·易 , 詹姆斯·布鲁诺 , 韩嘉玉 , 彼得·祖克曼 , 谢恩·斯坦内特·特雷克尔德 :
探索理解大型预训练语言模型中的英语动词类和替换。 142-152 纪尧姆·维斯涅夫斯基 , 朱立超 , 尼古拉斯·巴利埃 , 弗朗索瓦·伊冯 :
分析性别翻译错误以识别NMT系统编码器和解码器之间的信息流。 153-163 詹妮·昆兹 , 马丁·吉雷尼乌斯 , 奥斯卡·霍尔姆斯特伦 , 马尔科·库尔曼 :
人为评分不能反映下游效用:模型预测的自由文本解释研究。 164-177 巴德·阿卜杜拉 , 迪特里希·克拉科夫 :
声学单词嵌入的表示几何分析。 178-191 郑钊 , 伊夫塔·齐泽尔 , 谢·科恩(Shay B.Cohen) :
通过子群体分析了解语言模型中的领域学习。 192-209 迭戈·加西亚·奥拉诺 , 小野康正 , 乔伊迪普·戈什 , 拜伦·C·华莱士 :
基于中间实体的稀疏可解释表示学习。 210-224 伊萨尔·内贾戈利 , 埃斯马·巴尔基尔 , 凯萨琳·C·弗雷泽 , 斯维特兰娜·基里琴科 :
走向程序公平:揭示有毒语言分类器如何使用情感信息的偏见。 225-237 Digvijay Ingle公司 , 里沙布·库马尔·特里帕蒂 , 阿尤什·库马尔 , 凯文·帕特尔 , 吉森德拉·维帕 :
研究少快照设置中变压器的特性:RoBERTa中的冻结层有帮助吗? 238-248 蒂穆·瓦托拉 , 马蒂亚斯·克鲁茨 , 约格·蒂德曼 :
检测短语并不容易:使用新的SemAntoNeg基准分析反义词和否定词的语义相似性。 249-262 马努伊·马利克 , 理查德·约翰逊 :
多模式语言模型评估中的刻板印象控制。 263-271 阿里安·侯赛尼 , 安基特·瓦尼 , Dzmitry Bahdanau公司 , 亚历山德罗·索多尼 , 亚伦·C·库维尔 :
论语境学习中的作文泛化差距。 272-280 Kwabena Amponsah-Kaakyire公司 , 达里娅·佩利彭科(Daria Pylypenko) , 约瑟夫·范·贾纳比特 , 克里斯蒂娜·埃斯帕尼亚·博内 :
解释翻译:为什么神经分类器更好,他们学到了什么? 281-296 张丽宁 , 王梦晨 , 陈立本 , 张文欣 :
探究GPT-3的语义任务语言知识。 297-304 威廉·朱拉伊 , 威廉·鲁德曼 , 卡斯滕·艾克霍夫 :
GPT-2中的花园小径穿越。 305-313 潘博文 , 姜一凡 , 刘天然 , 谢恩·斯坦内特·特雷克尔德 :
通过因果中介分析测试预训练语言模型对分布性的理解。 314-324 京成牛 , 文杰路 , 埃里克·科利特 , 杰拉尔德·佩恩 :
利用Roark-滚动头距离探讨BERT的句法能力。 325-334 罗伊·拉辛 , 肖利·拉夫盖尔 , 约夫·戈德伯格 :
DALLE-2看到了双重效果:Text2Image模型中单词到概念映射的缺陷。 335-345 阿努拉·卡塔卡 , 粘土H.Yoo , 王伟勤 , 扎卡里·利普顿 , 迪维安什·考希克 :
分布变化下特征反馈的实际好处。 346-355 瑞轩汤 , 陈汉杰 , 杨凤姬 :
识别解释差异中的脆弱性来源:神经文本分类案例研究。 356-370 谢尔盖·特罗欣 , 纳德扎达·奇尔科娃 :
探索源代码的预训练模型。 371-383 斯特凡·肖滕 , 彼得·布勒姆 , 派克·沃森 :
探讨基于变换的语言模型中命名实体的表示。 384-393 朱莉娅·罗扎诺娃 , 黛博拉·费雷拉 , 塔亚帕兰省 , 马可·瓦伦蒂诺 , 安德烈·弗雷塔斯 :
分解神经NLI的自然逻辑推理。 394-403 菲利普·克鲁比卡 , 约翰·D·凯勒赫 :
噪音探测:解开嵌入物的经纬线。 404-417 Kazutoshi Shinoda公司 , Saku Sugawara公司 , 爱泽昭子 :
向右看:缓解提取式问答中的相对位置偏差。 418-425 达西·莱利 , 大卫·蒋 :
研究长度偏差和退化重复的连续生成任务。 426-440 奥列格·斯里科夫 , 维塔利·普罗塔索夫 , 叶卡捷琳娜·沃洛希纳 , 维多利亚·克尼亚兹科娃 , 塔蒂亚娜·沙夫里纳 :
通用和独立:详尽模型解释和评估的多语言探索框架。 441-456