@正在进行{kung-etal-2021高效,title=“高效的多任务辅助学习:通过特征相似性选择辅助数据”,author=“Kung、Po-Nien和尹生祥Chen、Yi-Cheng和Yang、Tse-Shuan和陈云农“,editor=“Moens、Marie-Francine和黄、玄静和Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“2021年自然语言处理实证方法会议记录”,月份=11月,年=“2021”,address=“多米尼加共和国Online和Punta Cana”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.emnlp-main.34”,doi=“10.18653/v1/2021.emnlp-main.34”,第416页至第428页,abstract=“多任务辅助学习利用一组相关的辅助任务来提高主任务的性能。一种常见的用法是手动选择多个辅助任务,对所有数据进行多任务学习,这带来了两个问题:(1)为主任务选择有益的辅助任务是很重要的;(2)当辅助数据集很大时,对所有数据进行训练变得耗时且不切实际。因此,本文重点解决这些问题,并提出一种时间效率高的采样方法,以选择与主要任务最相关的数据。该方法允许我们只训练辅助任务中最有益的子数据集,从而实现高效的多任务辅助学习。在三个基准数据集(RTE、MRPC、STS-B)上的实验表明,我们的方法明显优于随机抽样和ST-DNN。此外,通过应用我们的方法,该模型可以在RTE、MRPC、STS-B上超过完全训练的MT-DNN,分别只需要50、66和1{%}个数据。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“kung-etal-2021高效”><标题信息>高效的多任务辅助学习:根据特征相似性选择辅助数据</titleInfo><name type=“personal”>Po-Nien龚(Kung)<角色>作者</角色></name><name type=“personal”>盛祥<namePart type=“given”>盛祥</namePart>尹(音)<角色>作者</角色></name><name type=“personal”>易成<namePart type=“family”>陈</namePart><角色>作者</角色></name><name type=“personal”>谢轩杨<角色>作者</角色></name><name type=“personal”>Yun-Nung<namePart type=“family”>陈</namePart><角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2021年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>玛丽·弗朗辛莫恩斯<角色>编辑器</角色></name><name type=“personal”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>露西亚</namePart>Specia系列<角色>编辑器</角色></name><name type=“personal”>斯科特文涛<namePart type=“given”>文涛</namePart>Yih(Yih)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线和多米尼加共和国卡纳角</place></originInfo>会议出版物</relatedItem>多任务辅助学习利用一组相关的辅助任务来提高主要任务的性能。一种常见的用法是手动选择多个辅助任务以对所有数据进行多任务学习,这带来了两个问题:(1)为主要任务选择有益的辅助任务是很重要的;(2) 当辅助数据集很大时,对所有数据进行训练变得既费时又不切实际。因此,本文重点解决这些问题,并提出一种时间效率高的采样方法,以选择与主要任务最相关的数据。该方法允许我们只训练辅助任务中最有益的子数据集,从而实现高效的多任务辅助学习。在三个基准数据集(RTE、MRPC、STS-B)上的实验表明,我们的方法明显优于随机抽样和ST-DNN。此外,通过应用我们的方法,该模型可以在RTE、MRPC、STS-B上分别超过完全训练的MT-DNN,只需要50%、66%和1%的数据</摘要><identifier type=“citekey”>kung-etal-2021高效</identifier>10.18653/v1/2021.emnlp-main.34<位置><网址>https://aclantology.org/2021.emnlp-main.34</url></位置><部分>2021-11年<扩展单元=“page”><开始>416</开始>428</范围></部分></mods></modsCollection>
%0会议记录%高效多任务辅助学习:根据特征相似性选择辅助数据%阿公,蒲年%阿音、圣香%A Chen、Yi-Cheng%阿扬、谢轩%A Chen、Yun-Nung%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih、Scott Wen-tau%2021年自然语言处理实证方法会议论文集%D 2021年%11月8日%计算语言学协会%C Online和Punta Cana,多米尼加共和国%F kung-etal-2021高效%X多任务辅助学习利用一组相关的辅助任务来提高主要任务的性能。一种常见的用法是手动选择多个辅助任务以对所有数据进行多任务学习,这带来了两个问题:(1)为主要任务选择有益的辅助任务是很重要的;(2) 当辅助数据集很大时,对所有数据进行训练变得既费时又不切实际。因此,本文重点解决这些问题,并提出一种时间效率高的采样方法,以选择与主要任务最相关的数据。该方法允许我们只训练辅助任务中最有益的子数据集,从而实现高效的多任务辅助学习。在三个基准数据集(RTE、MRPC、STS-B)上的实验表明,我们的方法明显优于随机抽样和ST-DNN。此外,通过应用我们的方法,该模型可以在RTE、MRPC、STS-B上分别超过完全训练的MT-DNN,只需要50%、66%和1%的数据。%R 10.18653/v1/2021.emnlp-main.34%U型https://aclantology.org/2021.emnlp-main.34%U型https://doi.org/10.18653/v1/2021.emnlp-main.34%电话:416-428
降价(非正式)
[高效的多任务辅助学习:通过特征相似性选择辅助数据](https://aclantology.org/2021.emnlp-main.34)(Kung等人,EMNLP 2021)
国际计算语言学协会
- Po-Nien Kung、Sheng Siang Yin、Yi-Cheng、Tse-Shuan Yang和Yun-Nung Chen。2021高效的多任务辅助学习:根据特征相似性选择辅助数据.英寸2021年自然语言处理实证方法会议记录,第416–428页,在线和多米尼加共和国卡纳角。计算语言学协会。