@进行中{stowe-etal-2021-勘探,title=“探索隐喻释义生成”,author=“斯托、凯文和贝克、尼尔斯和艾丽娜·古列维奇“,editor=“比萨扎、阿里安娜和阿本德,奥姆里“,booktitle=“第25届计算自然语言学习会议记录”,月=11月,年=“2021”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.conll-1.26”,doi=“10.18653/v1/2021.conll-1.26”,页码=“323--336”,abstract=“隐喻生成是一项艰巨的任务,随着深度预处理模型的出现,隐喻的生成已经有了巨大的改进。这里我们将重点放在隐喻释义生成的具体任务上,在这个任务中,我们提供一个直译句子,并生成一个释义输入的隐喻句子。我们比较了朴素、{`}自由{'}生成模型利用对生成过程的控制形式,根据概念隐喻理论添加附加信息。我们评估了两种生成成对训练数据的方法,然后将其用于训练T5模型以进行自由和受控生成。我们使用众包对结果进行评估,结果表明,自由模型倾向于产生更流畅的释义,而受控模型更善于产生新颖的隐喻。然后,我们分析了评估指标,表明不同的指标对于捕捉隐喻释义的不同方面是必要的。我们发布我们的数据和模型,以及带注释的结果,以促进更好的评估指标的开发。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“stowe-etal-2021-探索”><标题信息>探索隐喻释义生成</titleInfo><name type=“personal”><namePart type=“给定”>Kevin</namePart>斯托<角色>作者</角色></name><name type=“personal”>零贝克<角色>作者</角色></name><name type=“personal”>艾丽娜古列维奇<角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第25届计算自然语言学习会议记录</titleInfo><name type=“personal”>阿里安娜<namePart type=“family”>Bisazza</namePart><角色>编辑器</角色></name><name type=“personal”>欧姆里Abend(阿本德)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem><abstract>隐喻生成是一项艰巨的任务,随着深度预训练模型的出现,隐喻生成得到了巨大的改进。这里我们关注的是隐喻释义生成的具体任务,在这个任务中,我们提供一个直译句子,并生成一个释义输入的隐喻句子。我们将天真、“自由”的生成模型与那些利用对生成过程的控制形式的模型进行了比较,并基于概念隐喻理论添加了额外的信息。我们评估了两种生成成对训练数据的方法,然后将其用于训练T5模型以进行自由和受控生成。我们使用众包对结果进行评估,结果表明,自由模型倾向于产生更流畅的释义,而受控模型更善于产生新颖的隐喻。然后,我们分析了评估指标,表明不同的指标对于捕捉隐喻释义的不同方面是必要的。我们发布我们的数据和模型,以及带注释的结果,以促进更好的评估指标的开发</摘要>stowe-etal-2021探索10.18653/v1/2021.conll-1.26<位置><网址>https://aclantology.org/2021.coll-1.26</url></位置><部分>2021-11年<扩展单元=“page”><开始>323<end>336</范围></部分></mods></modsCollection>
%0会议记录%T探索隐喻短语生成%凯文·斯托%尼尔斯·A·贝克%艾丽娜·古列维奇%阿里安娜·比萨扎%奥姆里·阿本德%第25届计算自然语言学习会议论文集%D 2021年%11月8日%计算语言学协会%C在线%F stowe-etal-2021-探索%X隐喻的生成是一项艰巨的任务,随着深度预处理模型的出现,已经取得了巨大的进步。这里我们关注的是隐喻释义生成的具体任务,在这个任务中,我们提供一个直译句子,并生成一个释义输入的隐喻句子。我们将天真、“自由”的生成模型与那些利用对生成过程的控制形式的模型进行了比较,并基于概念隐喻理论添加了额外的信息。我们评估了两种生成成对训练数据的方法,然后将其用于训练T5模型以进行自由和受控生成。我们使用众包对结果进行评估,结果表明,自由模型倾向于产生更流畅的释义,而受控模型更善于产生新颖的隐喻。然后,我们分析了评估指标,表明不同的指标对于捕捉隐喻释义的不同方面是必要的。我们发布我们的数据和模型,以及带注释的结果,以促进更好的评估指标的开发。%R 10.18653/v1/2021.coll-1.26%U型https://aclantology.org/2021.coll-1.26%U型https://doi.org/10.18653/v1/2021.coll-1.26%电话:323-336
降价(非正式)
【隐喻释义生成探索】(https://aclantology.org/2021.coll-1.26)(Stowe等人,CoNLL 2021)
国际计算语言学协会
- Kevin Stowe、Nils Beck和Iryna Gurevych。2021隐喻短语生成探索.英寸第25届计算自然语言学习会议记录,第323–336页,在线。计算语言学协会。