@进行中{hosseini-asl-etal-2022-繁殖,title=“基于情感分析的生成语言模型”,author=“Hosseini-Asl、Ehsan和刘文浩和熊才明”,editor=“Carpuat、Marine和德马内夫、玛丽·凯瑟琳和Meza Ruiz,Ivan Vladimir“,booktitle=“计算语言学协会的发现:NAACL 2022”,月=七月,年=“2022”,address=“美国西雅图”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2022.finds-naacl.58”,doi=“10.18653/v1/2022.findings-naacl.58”,页码=“770--787”,抽象=“情感分析是自然语言处理中的一项重要任务。在最近的工作中,预训练语言模型经常用于获得最先进的结果,尤其是在训练数据稀缺的情况下。通常通过在模型顶部添加特定于任务的层来微调下游任务。在本文中,我们重点关注一个基于光谱的情感分析,包括提取方面术语、类别,并预测其对应的极性。特别是,我们对一些快照设置感兴趣。我们建议使用单向注意的生成语言模型(除非另有说明,否则使用GPT2)将提取和预测任务重新定义为序列生成任务。通过这种方式,模型学习通过语言生成完成任务,而不需要训练特定于任务的层。我们对单任务极性预测的评估结果表明,我们的方法在少数镜头和全镜头设置下的平均性能大大优于先前的最新技术(基于BERT)。更重要的是,我们的生成方法显著减少了低资源数据导致的模型方差。我们进一步证明了所提出的生成语言模型可以处理联合和多任务设置,这与以前的工作不同。我们观察到,当通过联合和多个任务设置训练模型时,所提出的序列生成方法在极性预测方面取得了进一步改进的性能。通过对相似情感分析数据集SST-2、SST-5和OOS意图检测的进一步评估,验证了生成语言模型在少数场景下的优越性和噪声鲁棒性。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“hosseini-asl-etal-2022-generative”><标题信息><title>一个用于基于少快照方面的情感分析的生成语言模型</titleInfo><name type=“personal”>Ehsan(伊桑)侯赛尼·阿sl<角色>作者</角色></name><name type=“personal”>文浩刘<角色>作者</角色></name><name type=“personal”>蔡明熊<角色>作者</角色></name><原始信息>2022-07发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:NAACL 2022</titleInfo><name type=“personal”><namePart type=“given”>海洋</namePart>卡普阿特<角色>编辑器</角色></name><name type=“personal”>玛丽·凯瑟琳马内夫<角色>编辑器</角色></name><name type=“personal”>伊凡弗拉基米尔梅扎·鲁伊斯<角色>编辑器</角色></name><原始信息>计算语言学协会<位置><placeTerm type=“text”>美国西雅图</placeTerm></place></originInfo>会议出版物</relatedItem>情感分析是自然语言处理中的一项重要任务。在最近的研究中,预训练语言模型经常被用来获得最先进的结果,尤其是在训练数据稀缺的情况下。通常通过在模型顶部添加特定于任务的层来微调下游任务。本文主要研究基于方面的情感分析,包括提取方面术语、类别,并预测其对应的极性。特别是,我们对一些快照设置感兴趣。我们建议使用单向注意的生成语言模型(除非另有说明,否则使用GPT2)将提取和预测任务重新定义为序列生成任务。通过这种方式,模型学习通过语言生成完成任务,而不需要训练特定于任务的层。我们对单任务极性预测的评估结果表明,在少镜头和全镜头设置中,我们的方法在平均性能上优于以前最先进的方法(基于BERT)。更重要的是,我们的生成方法显著减少了由低资源数据引起的模型方差。我们进一步证明了所提出的生成语言模型可以处理联合和多任务设置,这与以前的工作不同。我们观察到,当通过联合和多个任务设置训练模型时,所提出的序列生成方法在极性预测方面取得了进一步改进的性能。通过对相似情感分析数据集SST-2、SST-5和OOS意图检测的进一步评估,验证了生成语言模型在少数场景下的优越性和噪声鲁棒性</摘要>hosseini-asl-etal-2022-生成型10.18653/v1/2022.findings-naacl.58<位置><网址>https://aclantology.org/2022.findings-naacl.58</url></位置><部分>2022-07年<扩展单元=“page”><开始>770787年</范围></部分></mods></modsCollection>
%0会议记录%一种基于小视角情感分析的生成语言模型%A Hosseini-Asl,埃桑%刘文浩%阿雄、蔡明%Y Carpuat,海军%玛丽·凯瑟琳Y de Marneffe%Y Meza Ruiz,伊万·弗拉基米尔%计算语言学协会的研究结果:NAACL 2022%D 2022年%7月8日%I计算语言学协会%C美国西雅图%F hosseini-asl-etal-2022-生成%情感分析是自然语言处理中的一项重要任务。在最近的研究中,预训练语言模型经常被用来获得最先进的结果,尤其是在训练数据稀缺的情况下。通常通过在模型顶部添加特定于任务的层来微调下游任务。本文主要研究基于方面的情感分析,包括提取方面术语、类别,并预测其对应的极性。特别是,我们对一些快照设置感兴趣。我们建议使用单向注意的生成语言模型(除非另有说明,否则使用GPT2)将提取和预测任务重新定义为序列生成任务。通过这种方式,模型学习通过语言生成完成任务,而不需要训练特定于任务的层。我们对单任务极性预测的评估结果表明,我们的方法在少数镜头和全镜头设置下的平均性能大大优于先前的最新技术(基于BERT)。更重要的是,我们的生成方法显著减少了低资源数据导致的模型方差。我们进一步证明了所提出的生成语言模型可以处理联合和多任务设置,这与以前的工作不同。我们观察到,当通过联合和多个任务设置训练模型时,所提出的序列生成方法在极性预测方面取得了进一步改进的性能。通过对相似情感分析数据集SST-2、SST-5和OOS意图检测的进一步评估,验证了生成语言模型在少数场景下的优越性和噪声鲁棒性。%R 10.18653/v1/2022.查找-naacl.58%U型https://aclantology.org/2022.findings-naacl.58%U型https://doi.org/10.18653/v1/2022.findings-naacl.58%电话770-787
降价(非正式)
【一种基于小视角情感分析的生成语言模型】(https://aclantology.org/2022.findings-naacl.58)(Hosseini-Asl等人,2022年调查结果)
国际计算语言学协会
- Ehsan Hosseini-Asl、Wenhao Liu和Caiming Xiong。2022一种基于小视角的情感分析生成语言模型.英寸计算语言学协会的研究结果:NAACL 2022,第770-787页,美国西雅图。计算语言学协会。