@进行中{caciularu-etal-2021-cdlm-cross,title=“{CDLM}:跨文档语言建模”,author=“Caciularu、Avi和Cohan、Arman和贝尔塔基、伊茨和彼得斯、马修和Cattan、Arie和伊多·达根“,editor=“Moens、Marie-Francine和黄、玄静和Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“计算语言学协会的发现:EMNLP 2021”,月=11月,年=“2021”,address=“多米尼加共和国蓬塔卡纳”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.findings-emnlp.225”,doi=“10.18653/v1/2021.findings-emnlp.225”,pages=“2648--2662”,抽象=“我们引入了一种新的针对多文档语言建模的预处理方法,将两个关键思想融入到屏蔽语言建模的自我监督目标中。首先,我们不是孤立地考虑文档,而是对多个相关文档集进行预处理,鼓励模型学习跨文档关系。第二,我们通过引入动态全局关注来改进最近的远程变形金刚,全局关注可以访问整个输入来预测屏蔽令牌。我们发布了CDLM(跨文档语言模型),这是一种新的用于多文档设置的通用语言模型,可以很容易地应用于下游任务。我们的广泛分析表明,这两种想法对CDLM的成功至关重要,并协同工作,为多文本任务设定最新的结果。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“caciularu-etal-2021-cdlm-cross”><标题信息>CDLM:跨文档语言建模</titleInfo><name type=“personal”><namePart type=“given”>Avi</namePart>Caciularu<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”><namePart type=“given”>阿曼</namePart>科汉<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>Iz</namePart>贝尔塔基<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>马修彼得斯<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>Arie(Arie)Cattan猫<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>Ido达根<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EMNLP 2021</titleInfo><name type=“personal”>玛丽·弗朗辛莫恩斯<角色>编辑器</角色></name><name type=“personal”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”>斯科特文涛<namePart type=“given”>文涛</namePart>Yih(Yih)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>多米尼加共和国卡纳角</place></originInfo>会议出版物</relatedItem>我们引入了一种新的面向多文档语言建模的预训练方法,将两个关键思想结合到屏蔽语言建模的自监督目标中。首先,我们不是孤立地考虑文档,而是对多个相关文档集进行预处理,鼓励模型学习跨文档关系。其次,我们通过引入动态全局关注来改进最近的远程变形金刚,全局关注可以访问整个输入来预测屏蔽令牌。我们发布了CDLM(跨文档语言模型),这是一种新的通用语言模型,用于多文档设置,可以轻松应用于下游任务。我们的广泛分析表明,这两种想法对CDLM的成功至关重要,并协同工作,为多文本任务设定最新的结果</摘要>caciularu-etal-2021-cdlm-cross10.18653/v1/2021.findings-emnlp.225<位置><网址>https://aclantology.org/2021.findings-emnlp.225</url></位置><部分>2021-11年<扩展单元=“page”><开始>2648<end>2662</end></范围></部分></mods></modsCollection>
%0会议记录%T CDLM:跨文档语言建模%阿维·卡奇瓦鲁%阿曼·A·科汉%贝尔塔吉,伊兹%彼得斯,马修%阿里·卡坦%阿达甘,爱多%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih、Scott Wen-tau%计算语言学协会的发现:EMNLP 2021%D 2021年%11月8日%I计算语言学协会%多米尼加共和国C蓬塔卡纳%F caciularu-etal-2021-cdlm-cross公司%我们引入了一种新的面向多文档语言建模的预训练方法,将两个关键思想结合到屏蔽语言建模的自监督目标中。首先,我们不是孤立地考虑文档,而是对多个相关文档集进行预处理,鼓励模型学习跨文档关系。其次,我们通过引入动态全局关注来改进最近的远程变形金刚,全局关注可以访问整个输入来预测屏蔽令牌。我们发布了CDLM(跨文档语言模型),这是一种新的通用语言模型,用于多文档设置,可以轻松应用于下游任务。我们的广泛分析表明,这两种想法对CDLM的成功至关重要,并协同工作,为多文本任务设定最新的结果。%R 10.18653/v1/2021.查找-emnlp.225%单位https://aclantology.org/2021.findings-emnlp.225%单位https://doi.org/10.18653/v1/2021.findings-emnlp.225%电话:2648-2662
降价(非正式)
[CDLM:跨文档语言建模](https://aclantology.org/2021.findings-emnlp.225)(Caciularu等人,2021年发现)
国际计算语言学协会
- Avi Caciularu、Arman Cohan、Iz Beltagy、Matthew Peters、Arie Cattan和Ido Dagan。2021CDLM:跨文档语言建模.英寸计算语言学协会的发现:EMNLP 2021第2648–2662页,多米尼加共和国卡纳角。计算语言学协会。