@进行中{deng-etal-2021压缩,title=“压缩、转换和创造:评估自然语言生成的统一框架”,author=“邓明凯和Tan、Bowen和刘正中和Xing、Eric和胡志婷”,editor=“Moens、Marie-Francine和黄、玄静和Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“2021年自然语言处理实证方法会议记录”,月份=11月,年=“2021”,address=“多米尼加共和国Online和Punta Cana”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.emnlp-main.599”,doi=“10.18653/v1/2021.emnlp main.599”,pages=“7580--7605”,abstract=“自然语言生成(NLG)跨越了广泛的任务范围,每个任务都有特定的目标,并希望生成的文本具有不同的属性。这种复杂性使得NLG的自动评估特别具有挑战性。以前的工作通常侧重于单个任务,并基于特定直觉制定了个人评估指标。在本文中,我们基于NLG任务中信息变化的性质提出了一个统一的观点,包括压缩(例如摘要)、转换(例如文本重写)和创建(例如对话)。输入、上下文和输出文本之间的信息对齐在描述生成过程中起着共同的中心作用。利用自动对齐预测模型,我们开发了一系列可解释的指标,这些指标适用于评估不同NLG任务的关键方面,通常不需要黄金参考数据。实验表明,在每一个不同的任务中,包括文本摘要、风格转换和知识对话,与最新的度量标准相比,统一设计的度量标准与人类判断的相关性更强或更具可比性。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“登革热-2021压缩”><标题信息>压缩、转换和创造:评估自然语言生成的统一框架</titleInfo><name type=“personal”>明凯邓(Deng)<角色>作者</角色></name><name type=“personal”>博文<namePart type=“family”>谭</namePart><角色>作者</角色></name><name type=“personal”><namePart type=“given”>郑中刘<角色>作者</角色></name><name type=“personal”>埃里克兴<角色>作者</角色></name><name type=“personal”>智婷胡<namePart type=“family”><角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2021年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>玛丽·弗朗辛莫恩斯<角色>编辑器</角色></name><name type=“personal”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”>斯科特文涛<namePart type=“given”>文涛</namePart><namePart type=“family”>Yih</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置><placeTerm type=“text”>在线和多米尼加共和国蓬塔卡纳</placeTerm></place></originInfo>会议出版物</relatedItem><abstract>自然语言生成(NLG)涉及广泛的任务,每个任务都有特定的目标,并希望生成的文本具有不同的属性。这种复杂性使得NLG的自动评估特别具有挑战性。以前的工作通常侧重于单个任务,并基于特定直觉制定了个人评估指标。在本文中,我们基于NLG任务中信息变化的性质提出了一个统一的观点,包括压缩(例如摘要)、转换(例如文本重写)和创建(例如对话)_输入、上下文和输出文本之间的信息对齐在描述生成过程中起着共同的中心作用。利用自动对齐预测模型,我们开发了一系列可解释的指标,这些指标适用于评估不同NLG任务的关键方面,通常不需要黄金参考数据。实验表明,在每一个不同的任务中,包括文本摘要、风格转换和知识对话,与最新的度量标准相比,统一设计的度量标准与人类判断的相关性更强或更具可比性</摘要>登革热-2021压缩10.18653/v1/2021.emnlp-main.599<位置><网址>https://aclantology.org/2021.emnlp-main.599</url></位置><部分>2021-11年<扩展单元=“page”><开始>7580</开始><end>7605</范围></部分></mods></modsCollection>
%0会议记录%T压缩、转换和创造:评估自然语言生成的统一框架%阿登、明凯%A Tan,鲍文%A Liu,郑忠%埃里克·阿星%阿虎、志婷%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih、Scott Wen-tau%2021年自然语言处理实证方法会议论文集%2021年4月%11月8日%计算语言学协会%C Online和Punta Cana,多米尼加共和国%F登革热-2021压缩%X自然语言生成(NLG)涉及广泛的任务,每个任务都有特定的目标,需要生成文本的不同属性。这种复杂性使得NLG的自动评估特别具有挑战性。以前的工作通常侧重于单个任务,并基于特定直觉制定了个人评估指标。在本文中,我们基于NLG任务中信息变化的性质提出了一个统一的观点,包括压缩(例如摘要)、转换(例如文本重写)和创建(例如对话)_输入、上下文和输出文本之间的信息对齐在描述生成过程中起着共同的中心作用。利用自动对齐预测模型,我们开发了一系列可解释的指标,这些指标适用于评估不同NLG任务的关键方面,通常不需要黄金参考数据。实验表明,在每一个不同的任务中,包括文本摘要、风格转换和知识对话,与最新的度量标准相比,统一设计的度量标准与人类判断的相关性更强或更具可比性。%R 10.18653/v1/2021.emnlp-main.599%U型https://aclantology.org/2021.emnlp-main.599%U型https://doi.org/10.18653/v1/2021-emnlp-main.599(网址:https://doi.org/10.18653/v1/2021-emnlp-main.599)%电话:7580-7605
降价(非正式)
[压缩、转导和创造:评估自然语言生成的统一框架](https://acl选集.org/2021.emnlp-main.599)(Deng等人,EMNLP 2021)
国际计算语言学协会
- 邓明凯(Mingkai Deng)、谭伯文(Bowen Tan)、刘正中(Zhengzhong Liu)、邢埃里克(Eric Xing)和胡志婷(Zhiting Hu)。2021年。压缩、转换和创造:评估自然语言生成的统一框架.英寸2021年自然语言处理实证方法会议记录,第7580–7605页,在线和多米尼加共和国卡纳角。计算语言学协会。