@进行中{akula-etal-2022-alfred,title=“{ALFRED}-{L}:调查互动视觉环境中语言对行动学习的作用”,author=“Akula、Arjun和盖拉、斯潘达纳和帕德马库马尔、艾什瓦里亚和纳马齐法尔、马赫迪和班萨尔、莫希特和托马森、杰西和Hakkani-Tur,Dilek“,editor=“Goldberg、Yoav和科扎列娃、佐尔尼察和张岳”,booktitle=“2022年自然语言处理实证方法会议记录”,月=12月,年=“2022”,address=“阿拉伯联合酋长国阿布扎比”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.emnlp-main.636”,doi=“10.18653/v1/2022.emnlp-main.636”,pages=“9369--9378”,抽象=“具体化视觉和语言任务完成需要一个具体化代理来解释自然语言指令和以自我为中心的视觉观察,以便在环境中导航和交互。在这项工作中,我们研究了ALFRED,一个具有挑战性的具体化任务完成基准,目的是深入了解模型的有效性我们使用语言。我们发现有证据表明,在此基准上训练的序列到序列和基于变压器的模型对输入语言指令的变化不够敏感。接下来,我们构建了一个新的测试拆分{--}ALFRED-L,以测试ALFRED模型是否可以推广到训练中没有看到的任务结构,这些任务结构直觉上需要与ALFRED中要求的相同类型的语言理解。对ALFRED-L现有模型的评估表明,(a)模型过度依赖于在典型ALFRED轨迹中访问对象的顺序,无法适应此顺序的修改,以及(b)使用附加的增强轨迹训练的模型能够更好地适应输入语言指令中的这种变化。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“akula-etal-2022-alfred”>模块ID=“akula-etal-2022-alfred”><标题信息><title>ALFRED-L:研究语言在交互式视觉环境中的作用</title></titleInfo><name type=“personal”>Arjun(阿琼)<namePart type=“family”>Akula</namePart><角色>作者</角色></name><name type=“personal”>斯潘达纳盖拉<角色>作者</角色></name><name type=“personal”>Aishwarya帕德马库玛<角色>作者</角色></name><name type=“personal”>马赫迪Namazifar<角色>作者</角色></name><name type=“personal”><namePart type=“given”>莫希特</namePart>班萨尔<角色>作者</角色></name><name type=“personal”>杰西托马森<角色>作者</角色></name><name type=“personal”>Dilek(Dilek)哈卡尼·图尔<角色>作者</角色></name><originInfo>2022-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2022年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>Yoav戈德堡<角色>编辑器</角色></name><name type=“personal”>佐尔尼察科扎列娃<角色>编辑器</角色></name><name type=“personal”>岳<namePart type=“given”><namePart type=“family”>张<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>阿拉伯联合酋长国阿布扎比</place></originInfo>会议出版物</relatedItem>具体化视觉和语言任务完成需要具体化代理来解释自然语言指令和以自我为中心的视觉观察,以便在环境中导航和交互。在这项工作中,我们研究了ALFRED,这是一个具有挑战性的具体任务完成基准,目的是深入了解模型如何有效地利用语言。我们发现有证据表明,在此基准上训练的序列到序列和基于变压器的模型对输入语言指令的变化不够敏感。接下来,我们构建了一个新的测试分割——ALFRED-L,以测试ALFRED模型是否可以推广到训练中没有看到的任务结构,这些任务结构直觉上需要与ALFRED中要求的相同类型的语言理解。对ALFRED-L现有模型的评估表明,(a)模型过度依赖于在典型ALFRED轨迹中访问对象的顺序,无法适应此顺序的修改,以及(b)用额外的增强轨迹训练的模型能够相对更好地适应输入语言指令中的这种变化</摘要>akula-etal-2022-alfred10.18653/v1/2022.emnlp-main.636<位置><网址>https://aclantology.org/2022.emnlp-main.636</url></位置><部分>2022-12年<扩展单元=“page”><开始>9369<end>9378</范围></部分></mods></modsCollection>
%0会议记录%T ALFRED-L:研究互动视觉环境中语言对行动学习的作用%阿库拉,阿琼%盖拉,西班牙%A Padmakumar,艾什瓦里亚%马赫迪·纳马齐法尔%莫希特·班萨尔%托马斯,杰西%A Hakkani-Tur,Dilek%Y Goldberg,约夫%佐尔尼察Y Kozareva%Y Zhang,岳%2022年自然语言处理实证方法会议论文集%D 2022年%12月8日%计算语言学协会%C阿拉伯联合酋长国阿布扎比%F akula-etal-2022-alfred公司%X具体化视觉和语言任务完成要求具体化代理解释自然语言指令和以自我为中心的视觉观察,以便在环境中导航和交互。在这项工作中,我们研究了ALFRED,这是一个具有挑战性的具体任务完成基准,目的是深入了解模型如何有效地利用语言。我们发现有证据表明,在此基准上训练的序列到序列和基于变压器的模型对输入语言指令的变化不够敏感。接下来,我们构建了一个新的测试分割——ALFRED-L,以测试ALFRED模型是否可以推广到训练中没有看到的任务结构,这些任务结构直觉上需要与ALFRED中要求的相同类型的语言理解。对ALFRED-L现有模型的评估表明,(a)模型过度依赖于在典型ALFRED轨迹中访问对象的顺序,无法适应此顺序的修改,以及(b)使用附加的增强轨迹训练的模型能够更好地适应输入语言指令中的这种变化。%R10.18653/v1/2022.emnlp-main.636%U型https://aclantology.org/2022.emnlp-main.636%U型https://doi.org/10.18653/v1/2022.emnlp-main.636%电话:9369-9378
降价(非正式)
【ALFRED-L:调查互动视觉环境中行动学习语言的作用】(https://aclantology.org/2022.emnlp-main.636)(Akula等人,EMNLP 2022)
国际计算语言学协会
- Arjun Akula、Spandana Gella、Aishwarya Padmakumar、Mahdi Namazifar、Mohit Bansal、Jesse Thomason和Dilek Hakkani-Tur。2022ALFRED-L:研究互动视觉环境中语言对行动学习的作用.英寸2022年自然语言处理实证方法会议记录,第9369–9378页,阿拉伯联合酋长国阿布扎比。计算语言学协会。