L(左)收入C上下文或N个艾姆斯?A类n个E类经验的S公司继续学习N个欧拉的R(右)兴高采烈E类萃取

郝鹏,天宇高,徐涵,林彦凯,李鹏,刘志远,孙茂松,周杰(音译)


摘要
神经模型在关系提取(RE)基准测试方面取得了显著的成功。然而,目前尚不清楚文本中的哪些信息会影响现有RE模型的决策,以及如何进一步提高这些模型的性能。为此,我们实证研究了文本中两个主要信息来源的作用:文本上下文和实体提及(名称)。我们发现(i)虽然上下文是支持预测的主要来源,但RE模型也严重依赖实体提及的信息,其中大多数是类型信息,并且(ii)现有数据集可能通过实体提及泄漏浅层启发式,从而有助于RE基准的高性能。基于这些分析,我们提出了一个实体屏蔽的RE对比预训练框架,以加深对文本上下文和类型信息的理解,同时避免死记硬背实体或在提及中使用表面线索。我们进行了大量实验来支持我们的观点,并表明我们的框架可以提高神经模型在不同RE场景中的有效性和鲁棒性。所有代码和数据集发布于https://github.com/thunlp/RE-Context-or-Names网址.
选集ID:
2020.emnlp-main.298年
体积:
2020年自然语言处理实证方法会议记录
月份:
十一月
年份:
2020
地址:
在线的
编辑:
邦妮·韦伯,特雷弗·科恩,何玉兰,杨柳
地点:
EMNLP公司
SIG公司:
出版商:
计算语言学协会
注:
页:
3661–3672
语言:
网址:
https://aclantology.org/2020.emnlp-main.298
内政部:
10.18653/v1/2020.emnlp-main.298
比比键:
引用(ACL):
郝鹏、高天宇、徐涵、林彦凯、李鹏、刘志远、孙茂松和周杰。2020从上下文或名称中学习?神经关系提取的实证研究.英寸2020年自然语言处理实证方法会议记录,第3661–3672页,在线。计算语言学协会。
引用(非正式):
从上下文或名称中学习?神经关系提取的实证研究(Peng等人,EMNLP 2020)
复制引文:
PDF格式:
https://aclantology.org/2020.emnlp-main.298.pdf
可选补充材料:
2020.emnlp-main.298.可选补充材料.zip
视频:
 https://slideslive.com/38938855
代码
thunlp/RE-上下文或名称
数据
少量RelFewRel 2.0版2010年第6学期任务8TACRED(目标)