@进行中{peng-etal-2020-学习,title=“{L}从{C}上下文或{N}ames中获利?{A}N{E}实证{S}研究{N}eural{R}elation{E}xtraction”,author=“彭、郝和高、天宇和韩、徐和Lin、Yankai和李鹏刘志远和孙茂松周杰”,editor=“韦伯、邦妮和科恩、特雷弗和他、玉兰和刘,杨“,booktitle=“2020年自然语言处理实证方法会议论文集”,月=11月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.emnlp-main.298”,doi=“10.18653/v1/2020.emnlp-main.298”,pages=“3661--3672”,abstract=“神经模型在关系提取(RE)方面取得了显著的成功基准。然而,目前尚不清楚文本中的哪些信息会影响现有RE模型的决策,以及如何进一步提高这些模型的性能。为此,我们实证研究了文本中两个主要信息来源的作用:文本上下文和实体提及(名称)。我们发现(i)虽然上下文是支持预测的主要来源,但RE模型也严重依赖实体提及的信息,其中大多数是类型信息,并且(ii)现有数据集可能通过实体提及泄漏浅层启发式,从而有助于RE基准的高性能。基于这些分析,我们提出了一个实体屏蔽的RE对比预训练框架,以加深对文本上下文和类型信息的理解,同时避免死记硬背实体或在提及中使用表面线索。我们进行了大量实验来支持我们的观点,并表明我们的框架可以提高神经模型在不同RE场景中的有效性和鲁棒性。所有代码和数据集都发布在\url{https://github.com/thunlp/RE-Context-or-Names}。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“peng-etal-2020学习”><标题信息><title>从上下文或名称中学习?神经关系提取的实证研究</titleInfo><name type=“personal”>郝(音译)彭<namePart type=“family”><角色>作者</角色></name><name type=“personal”>天宇<namePart type=“given”>高<namePart type=“family”><角色>作者</角色></name><name type=“personal”><namePart type=“given”>徐韩寒<角色>作者</角色></name><name type=“personal”><namePart type=“given”>严凯</namePart>林<角色>作者</角色></name><name type=“personal”>彭<namePart type=“given”>李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>致远<namePart type=“given”>刘<角色>作者</角色></name><name type=“personal”>毛松太阳<角色>作者</角色></name><name type=“personal”><namePart type=“given”>杰<namePart type=“family”>周<角色>作者</角色></name><originInfo><发布日期>2020-11</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2020年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>邦妮韦伯<namePart type=“family”>Webber</namePart><角色>编辑器</角色></name><name type=“personal”>特雷弗科恩<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>玉兰</namePart><namePart type=“family”>他</namePart><角色>编辑器</角色></name><name type=“personal”>杨(Yang)刘<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>神经模型在关系提取(RE)基准测试方面取得了显著的成功。然而,目前尚不清楚文本中的哪些信息会影响现有RE模型的决策,以及如何进一步提高这些模型的性能。为此,我们实证研究了文本中两个主要信息来源的作用:文本上下文和实体提及(名称)。我们发现(i)虽然上下文是支持预测的主要来源,但RE模型也严重依赖实体提及的信息,其中大多数是类型信息,并且(ii)现有数据集可能通过实体提及泄漏浅层启发式,从而有助于RE基准的高性能。基于这些分析,我们提出了一个实体屏蔽的RE对比预训练框架,以加深对文本上下文和类型信息的理解,同时避免死记硬背实体或在提及中使用表面线索。我们进行了大量实验来支持我们的观点,并表明我们的框架可以提高神经模型在不同RE场景中的有效性和鲁棒性。所有代码和数据集发布于https://github.com/thunlp/RE-Context-or-Names。</摘要><identifier type=“citekey”>peng-etal-2020-学习</identifier>10.18653/v1/2020。emnlp-main.298<位置><网址>https://aclantology.org/2020.emnlp-main.298</url></位置><部分><日期>2020-11</date><扩展单元=“page”><开始>3661<end>3672</范围></部分></mods></modsCollection>
%0会议记录%从上下文或名称中学习?神经关系提取的实证研究%阿鹏、郝%天宇阿高%阿汉、徐%严凯阿林%李鹏%刘志远%孙茂松%阿周,杰%Y Webber,邦妮%特雷弗·Y·科恩%Yu He,玉兰%Y Liu、Yang%2020年自然语言处理实证方法会议论文集%D 2020年%11月8日%计算语言学协会%C在线%F peng-etal-2020学习%X神经模型在关系提取(RE)基准测试方面取得了显著的成功。然而,目前尚不清楚文本中的哪些信息会影响现有RE模型的决策,以及如何进一步提高这些模型的性能。为此,我们实证研究了文本中两个主要信息来源的作用:文本上下文和实体提及(名称)。我们发现(i)虽然上下文是支持预测的主要来源,但RE模型也严重依赖实体提及的信息,其中大多数是类型信息,并且(ii)现有数据集可能通过实体提及泄漏浅层启发式,从而有助于RE基准的高性能。基于这些分析,我们提出了一个实体屏蔽的RE对比预训练框架,以加深对文本上下文和类型信息的理解,同时避免死记硬背实体或在提及中使用表面线索。我们进行了大量实验来支持我们的观点,并表明我们的框架可以提高神经模型在不同RE场景中的有效性和鲁棒性。所有代码和数据集发布于https://github.com/thunlp/RE-Context-or-Names。%R 10.18653/v1/2020.emnlp-main.298%U型https://aclantology.org/2020.emnlp-main.298%U型https://doi.org/10.18653/v1/2020.emnlp-main.298%电话3661-3672
降价(非正式)
[从上下文或名称中学习?神经关系提取的实证研究](https://acl选集.org/2020.emnlp-main.298)(Peng等人,EMNLP 2020)
国际计算语言学协会