@进行中{greco-etal-2022-小,title=“一个小而有见识的多样化模型:多模{G}uess{W}hat!?猜测游戏的案例”,author=“格雷科、克劳迪奥和泰斯托尼、阿尔贝托和伯纳迪、拉斐拉和Frank,Stella“,editor=“Dobnik、Simon和格罗夫、朱利安和阿萨德·赛义德“,booktitle=“2022年CLASP(Dis)实施例会议记录”,月=9月,年=“2022”,address=“瑞典哥德堡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.crap-1.1”,pages=“1--10”,abstract=“经过预训练的视觉和语言变换器能够传递在预训练期间积累的大量数据的表征知识,因此在下游任务中取得了很高的性能。在本文中,我们询问是否有可能使用基于传递的特征与此类模型竞争(预训练、冻结)表示与轻量级架构相结合。我们以多模式猜测任务作为测试平台,猜猜什么?!。我们的轻量化模型集合与微调预处理变压器(LXMERT)的性能相匹配。对我们的集成进行的不确定性分析表明,轻量级传输表示缩小了与LXMERT的数据不确定性差距,同时保留了模型多样性,导致集成增强。我们进一步证明,LXMERT的性能增益完全是由于其额外的V{\&}L预训练,而不是由于体系结构的改进。这些结果表明,多种功能和轻量级模型的灵活集成是大型、繁琐、预处理模型的可行替代方案。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“greco-etal-2022-small”><标题信息><title>一个小型但信息丰富且多样化的模型:多模态猜测的案例什么!?猜谜游戏</title></titleInfo><name type=“personal”>克劳迪奥Greco(格雷科)<角色>作者</角色></name><name type=“personal”>阿尔贝托Testoni公司<角色>作者</角色></name><name type=“personal”>拉斐拉(Raffaella)贝尔纳迪<角色>作者</角色></name><name type=“personal”>斯特拉<namePart type=“family”>弗兰克</namePart><角色>作者</角色></name><原始信息>发布日期:2022-09发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2022年CLASP(Dis)实施例会议记录</titleInfo><name type=“personal”>西蒙Dobnik(多布尼克)<角色>编辑器</角色></name><name type=“personal”>朱利安(Julian)格罗夫<角色>编辑器</角色></name><name type=“personal”>阿萨德赛义德<角色>编辑器</角色></name><原始信息>计算语言学协会<位置>瑞典哥德堡</place></originInfo>会议出版物</relatedItem><abstract>预训练的视觉和语言转换器在下游任务中实现了高性能,因为它们能够转移在大量数据的预训练中积累的代表性知识。在本文中,我们询问是否有可能使用基于传输(预训练、冻结)表示的特征与轻量级架构相结合来与此类模型竞争。我们以多模式猜测任务作为测试平台,猜猜什么?!。我们的轻量化模型集合与微调预处理变压器(LXMERT)的性能相匹配。对我们的集成进行的不确定性分析表明,轻量级传输表示缩小了与LXMERT的数据不确定性差距,同时保留了模型多样性,导致集成增强。我们进一步证明,LXMERT的性能提升完全是由于其额外的V&;L预培训,而不是因为架构改进。这些结果表明,多种功能和轻量级模型的灵活集成是大型、繁琐、预处理模型的可行替代方案</摘要><identifier type=“citekey”>greco-etal-2022-small</identifier><位置><网址>https://aclantology.org/2022.扣-1.1</url></位置><部分>2022-09年<日期><扩展单元=“page”><开始>1<end>10</范围></部分></mods></modsCollection>
%0会议记录%一个小但有信息的多样化模型:多模猜测的案例!?猜谜游戏%克劳迪奥·格雷科%阿尔贝托·A Testoni%A Bernardi,拉斐拉%弗兰克,斯特拉%西蒙·多布尼克%朱利安·格罗夫%阿萨德·Y·赛义德%2022年CLASP(Dis)实施例会议记录%D 2022年%9月8日%计算语言学协会%C哥德堡,瑞典%F greco-etal-2022-小%X预训练的视觉和语言变形金刚在下游任务中表现出色,因为他们能够转移在大量数据预训练期间积累的表征知识。在本文中,我们询问是否有可能使用基于传输(预训练、冻结)表示的特征与轻量级架构相结合来与此类模型竞争。我们以多模式猜测任务作为测试平台,猜猜什么?!。我们的轻量级模型与经过微调的预训练变压器(LXMERT)的性能相匹配。对我们的集成进行的不确定性分析表明,轻量级传输表示缩小了与LXMERT的数据不确定性差距,同时保留了模型多样性,导致集成增强。我们进一步证明,LXMERT的性能提升完全是由于其额外的V&L预处理,而不是由于架构改进。这些结果表明,多种功能和轻量级模型的灵活集成是大型、繁琐、预处理模型的可行替代方案。%U型https://aclantology.org/2022.扣-1.1%第1-10页
降价(非正式)
[一个小型但有信息的多样化模型:多式猜测案例什么!?猜测游戏](https://aclantology.org/2022.扣-1.1)(Greco等人,CLASP 2022)
国际计算语言学协会