@在过程中{arviv-etal-2020-huji,title=“{胡吉}-{KU}在{MRP}2020:两个基于转换的神经解析器”,author=“Arviv、Ofir和崔瑞祥Daniel Hershcovich”,editor=“Oepen、Stephan和阿本德、奥姆里和Abzianize、Lasha和Bos、Johan和哈吉、简和赫什科维奇、丹尼尔和李斌和O'Gorman、Tim和薛、念文和丹尼尔·泽曼”,booktitle=“CoNLL 2020共享任务程序:跨框架意义表征解析”,月=11月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.conll-shared.7",doi=“10.18653/v1/2020.conll-shared.7”,pages=“73--82”,abstract=“本文描述了HUJI-KU系统在2020年计算语言学习会议(CoNLL)上提交给跨框架意义表示分析(MRP)共享任务的情况采用TUPA和HIT-SCIR解析器,这两个解析器分别是2019年MRP共享任务中的基线系统和获胜系统。两者都是使用BERT上下文化嵌入的基于转换的解析器。我们推广了TUPA以支持新添加的MRP框架和语言,并使用HIT-SCIR解析器进行了多任务学习实验。我们在跨框架和跨语言方面均排名第四。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“网址:http://www.loc.gov/mods/v3"><mods ID=“arviv-etal-2020-huji”><标题信息>2020年MRP的HUJI-KU:两个基于转换的神经解析器</titleInfo><name type=“personal”>办公室Arviv公司<角色>作者</角色></name><name type=“personal”>瑞祥<namePart type=“given”>崔<namePart type=“family”><角色>作者</角色></name><name type=“personal”><namePart type=“given”>Daniel</namePart>丹尼尔</namePart赫什科维奇<角色>作者</角色></name><originInfo><发布日期>2020-11</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>CoNLL 2020共享任务程序:跨框架意义表征解析</titleInfo><name type=“personal”>斯蒂芬Oepen公司<角色>编辑器</角色></name><name type=“personal”>欧姆里Abend(阿本德)<角色>编辑器</角色></name><name type=“personal”>拉沙阿布扎尼泽<角色>编辑器</角色></name><name type=“personal”>约翰老板<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>一月</namePart>哈吉奇<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Daniel</namePart>丹尼尔</namePart赫什科维奇<角色>编辑器</角色></name><name type=“personal”>箱子李<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>蒂姆<namePart type=“family”>奥戈尔曼</namePart><角色>编辑器</角色></name><name type=“personal”>年文薛(音译)<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Daniel</namePart>丹尼尔</namePart泽曼<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>本文描述了HUJI-KU系统在2020年计算语言学习会议(CoNLL)上提交的跨框架意义表示分析(MRP)共享任务,使用TUPA和HIT-SCIR解析器,这两个解析器分别是2019年MRP共享任务的基线系统和获胜系统。两者都是使用BERT上下文化嵌入的基于转换的解析器。我们推广了TUPA以支持新添加的MRP框架和语言,并使用HIT-SCIR解析器进行了多任务学习实验。我们在跨框架和跨语言方面均排名第四</摘要>arviv-etal-2020-huji<identifier type=“doi”>10.18653/v1/2020.conll共享.7</identifier><位置><网址>https://aclantology.org/2020.conll-shared.7</url></位置><部分><日期>2020-11</date><扩展单元=“page”><start>73</start><结束>82</范围></部分></模块></modsCollection>
%0会议记录%2020年MRP的T HUJI-KU:两个基于转换的神经解析器%阿维夫,奥菲尔%阿翠、瑞香%丹尼尔·赫什科维奇%Y Oepen,斯蒂芬%奥姆里·阿本德%Y Abzianize,拉沙%约翰·Y·博斯%扬·Y·哈吉奇%丹尼尔·赫什科维奇%Y Li,Bin(李斌)%Y O’Gorman,蒂姆%Y Xue,念文%丹尼尔·泽曼%CoNLL 2020共享任务的S程序集:跨框架意义表征分析%D 2020年%11月8日%计算语言学协会%C在线%F arviv-etal-2020-huji公司%X本文描述了HUJI-KU系统在2020年计算语言学习会议(CoNLL)上提交给跨框架意义表示分析(MRP)共享任务的情况,使用TUPA和HIT-SCIR解析器,这两个解析器分别是2019年MRP共享任务的基线系统和获胜系统。两者都是使用BERT上下文化嵌入的基于转换的解析器。我们推广了TUPA以支持新添加的MRP框架和语言,并使用HIT-SCIR解析器进行了多任务学习实验。我们在跨框架和跨语言方面均排名第四。%R10.18653/v1/2020。控制共享。7%U型https://aclantology.org/2020.conll-shared.7%U型https://doi.org/10.18653/v1/2020。conll-shared.7%电话73-82
降价(非正式)
【2020年MRP会议上的HUJI-KU:两个基于转换的神经解析器】(https://aclcollectory.org/2020.conll共享。7)(Arviv等人,CoNLL 2020)
国际计算语言学协会