@进行中{丁-塔尔-2021学习,title=“学习选择性学习以生成弱监督的短语”,author=“丁、凯泽和李定成和Li、Alexander Hanbo和Fan、Xing和郭、陈雷和刘、杨和刘欢“,editor=“Moens、Marie-Francine和黄、玄静和Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“2021年自然语言处理实证方法会议记录”,月=11月,年=“2021”,address=“多米尼加共和国Online和Punta Cana”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.emnlp-main.480”,doi=“10.18653/v1/2021.emnlp-main.480”,pages=“5930--5940”,抽象=“释义生成是一项长期存在的NLP任务,在下游NLP任务中有着不同的应用。然而,现有工作的有效性主要依赖于大量的黄金标签数据。虽然已经提出了无监督的努力来缓解这一问题,但他们可能无法生成有意义的释义,因为监督信号确认。在这项工作中,我们超越了现有的范式,提出了一种新的方法,用监管薄弱的数据生成高质量的释义。具体来说,我们解决了弱监督复述生成问题:(1)通过基于检索的伪复述扩展获得丰富的弱标记平行句;(2)开发一个元学习框架,逐步选择有价值的样本,对句子复述任务中的预训练语言模型BART进行微调。我们证明,与现有的无监督方法相比,我们的方法取得了显著的改进,并且在性能上甚至可以与有监督的现状相媲美。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“ding-etal-2021-learning”><标题信息><title>学习有选择地学习弱监督短语生成</title></titleInfo><name type=“personal”><namePart type=“given”>凯泽丁<namePart type=“family”><角色>作者</角色></name><name type=“personal”><namePart type=“given”>鼎城李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>亚历山大<namePart type=“given”>Hanbo</namePart>李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>兴风扇<角色>作者</角色></name><name type=“personal”><namePart type=“given”>晨雷</namePart>郭<namePart type=“family”><角色>作者</角色></name><name type=“personal”>杨(Yang)刘<角色>作者</角色></name><name type=“personal”><namePart type=“given”>环刘<角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2021年自然语言处理实证方法会议记录</titleInfo><name type=“personal”><namePart type=“given”>玛丽·弗兰辛</namePart>莫恩斯<角色>编辑器</角色></name><name type=“personal”>轩辕<namePart type=“given”><namePart type=“family”>黄</namePart><角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”>斯科特文涛<namePart type=“given”>文涛</namePart>Yih(Yih)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线和多米尼加共和国卡纳角</place></originInfo>会议出版物</relatedItem>释义生成是一项长期存在的NLP任务,在下游NLP任务中有多种应用。然而,现有工作的有效性主要依赖于大量贴金数据。虽然已经提出了非监督措施来缓解这个问题,但由于缺乏监督信号,这些措施可能无法产生有意义的解释。在这项工作中,我们超越了现有的范式,提出了一种新的方法,用监管薄弱的数据生成高质量的释义。具体来说,我们解决了弱监督复述生成问题:(1)通过基于检索的伪复述扩展获得丰富的弱标记平行句;(2)开发一个元学习框架,逐步选择有价值的样本,对句子复述任务中的预训练语言模型BART进行微调。我们证明,与现有的无监督方法相比,我们的方法取得了显著的改进,并且在性能上甚至可以与有监督的现状相媲美</摘要><identifier type=“citekey”>ding-etal-2021学习<identifier type=“doi”>10.18653/v1/2021.emnlp main.480</identifier><位置><网址>https://aclantology.org/2021.emnlp-main.480</url></位置><部分>2021-11年<扩展单元=“page”><开始>5930</开始><end>5940</范围></部分></mods></modsCollection>
%0会议记录%弱监督短语生成的选择性学习%阿丁、凯泽%阿丽、丁成%A Li,亚历山大·汉波%阿凡,邢%阿果、陈雷%A刘,杨%阿刘,欢%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih,Scott Wen tau%2021年自然语言处理实证方法会议论文集%D 2021年%11月8日%计算语言学协会%C Online和Punta Cana,多米尼加共和国%F ding-etal-2021学习%X释义生成是一项长期存在的NLP任务,在下游NLP任务中有多种应用。然而,现有努力的有效性主要依赖于大量的金标数据。虽然已经提出了非监督措施来缓解这个问题,但由于缺乏监督信号,这些措施可能无法产生有意义的解释。在这项工作中,我们超越了现有的范式,提出了一种新的方法,用监管薄弱的数据生成高质量的释义。具体来说,我们解决了弱监督复述生成问题:(1)通过基于检索的伪复述扩展获得丰富的弱标记平行句;(2)开发一个元学习框架,逐步选择有价值的样本,对句子复述任务中的预训练语言模型BART进行微调。我们证明,与现有的无监督方法相比,我们的方法取得了显著的改进,并且在性能上甚至可以与有监督的现状相媲美。%R 10.18653/v1/2021.emnlp-main.480%U型https://aclantology.org/2021.emnlp-main.480%U型https://doi.org/10.18653/v1/2021.emnlp-main.480%电话:5930-5940
降价(非正式)
[学习有选择地学习弱监督短语生成](https://aclantology.org/2021.emnlp-main.480)(丁等人,EMNLP 2021)
国际计算语言学协会
- 丁凯泽、李定成、李汉波、邢凡、郭晨雷、杨柳和刘欢。2021学习有选择地学习弱监督短语生成.英寸2021年自然语言处理实证方法大会论文集,第5930–5940页,在线和多米尼加共和国卡纳角。计算语言学协会。