@进展中{koto-etal-2021-话语,title=“预训练语言模型的语篇探究”,author=“Koto、Fajri和Lau、Jey Han和蒂莫西·鲍德温“,editor=“Toutanova、Kristina和拉姆西斯基、安娜和Zettlemoyer、Luke和Hakkani Tur、Dilek和贝尔塔基、伊茨和Bethard、Steven和科特雷尔、瑞恩和查克拉波蒂、坦莫伊和周一超”,booktitle=“计算语言学协会北美分会2021年会议记录:人类语言技术”,月=六月,年=“2021”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2021.naacl-main.301”,doi=“10.18653/v1/2021.naacl-main.301”,pages=“3849--3864”,abstract=“预处理语言模型(LMs)探测的现有工作主要关注句子级的句法任务。本文引入文档级话语探测来评估预处理LM捕获文档级关系的能力。我们对7个预处理LM、4种语言和7个语篇探测任务进行了实验,发现BART在捕获语篇{---}方面总体上是最佳模型,但仅在其编码器中,BERT的表现与基线模型一样令人惊讶。在不同的模型中,在哪一层最好地捕获话语信息方面存在着实质性差异,并且模型之间存在着巨大差异。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3“><mods ID=“koto-etal-2021-话语”><标题信息>预设语言模型的语篇探索</titleInfo><name type=“personal”>Fajri传真Koto公司<角色>作者</角色></name><name type=“personal”>Jey(Jey)韩语<namePart type=“family”>Lau<角色>作者</角色></name><name type=“personal”>蒂莫西鲍德温<角色>作者</角色></name><originInfo><发布日期>2021-06</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会北美分会2021年会议记录:人类语言技术</titleInfo><name type=“personal”>克里斯蒂娜图塔诺娃<角色>编辑器</角色></name><name type=“personal”>安娜<namePart type=“family”>伦希斯基</namePart><角色>编辑器</角色></name><name type=“personal”>卢克Zettlemoyer公司<角色>编辑器</角色></name><name type=“personal”>Dilek(Dilek)哈卡尼·图尔<角色>编辑器</角色></name><name type=“personal”>Iz</namePart>贝尔塔基<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>史蒂文</namePart>贝瑟德<角色>编辑器</角色></name><name type=“personal”>Ryan科特雷尔<角色>编辑器</角色></name><name type=“personal”>坦莫伊查克拉波蒂<角色>编辑器</角色></name><name type=“personal”>宜昌<namePart type=“family”>周<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>现有的预处理语言模型(LMs)探测工作主要集中在句子级句法任务上。本文引入文档级话语探测来评估预处理LM捕获文档级关系的能力。我们用7个预处理的LM、4种语言和7个语篇探测任务进行了实验,发现BART是捕获语篇的最佳模型,但仅在其编码器中,BERT的表现出奇地好于基线模型。在不同的模型中,在哪一层最好地捕获话语信息方面存在着实质性差异,并且模型之间存在着巨大差异</摘要>koto-etal-2021-语篇<identifier type=“doi”>10.18653/v1/2021.naacl main.301</identifier><位置><网址>https://aclantology.org/2021.naacl-main.301</url></位置><部分>2021-06年<扩展单元=“page”><开始>3849<end>3864</范围></部分></mods></modsCollection>
%0会议记录%预设语言模型的T语篇探索%阿库托,法杰里%刘杰翰%蒂莫西·鲍德温%克里斯蒂娜·托塔诺娃%Y Rumshisky,安娜%Y Zettlemoyer,卢克%Y Hakkani-Tur、Dilek%伊茨贝尔塔基%Y Bethard,Steven%Y Cotterell,瑞安%Y Chakraborty,坦莫伊%周一超%计算语言学协会北美分会2021年会议记录:人类语言技术%D 2021年%6月8日%计算语言学协会%C在线%F koto-etal-2021-话语%X现有的预处理语言模型(LMs)探测工作主要集中在句子级句法任务上。本文引入文档级话语探测来评估预处理LM捕获文档级关系的能力。我们用7个预处理的LM、4种语言和7个语篇探测任务进行了实验,发现BART是捕获语篇的最佳模型,但仅在其编码器中,BERT的表现出奇地好于基线模型。在不同的模型中,在哪一层最好地捕获话语信息方面存在着实质性差异,并且模型之间存在着巨大差异。%R 10.18653/v1/2021.naacl-main.301号%U型https://aclantology.org/2021.naacl-main.301%U型https://doi.org/10.18653/v1/2021.naacl-main.301%电话3849-3864
降价(非正式)
【预训练语言模型的语篇探索】(https://aclantology.org/2021.naacl-main.301)(Koto等人,NAACL 2021)
国际计算语言学协会
- Fajri Koto、Jey Han Lau和Timothy Baldwin。2021预设语言模型的语篇分析.英寸计算语言学协会北美分会2021年会议记录:人类语言技术,第3849–3864页,在线。计算语言学协会。