T型2净入学率:用于命名实体识别的基于Transformers的迁移学习框架

萨杜拉·阿明,Guenter Neumann公司


摘要
深度变换器模型的最新进展在几个自然语言处理(NLP)任务中取得了最新进展,而命名实体识别(NER)传统上受益于长短期记忆(LSTM)网络。在这项工作中,我们提出了一个基于Transformers的命名实体识别(T2NER)传输学习框架,该框架是在PyTorch中创建的,用于使用深度变换器模型进行命名实体识别。该框架以Transformers库为核心建模引擎构建,支持从顺序转移到域适应、多任务学习和半监督学习的多种转移学习场景。它旨在将这些领域的算法进步与最先进的变压器模型相结合,以提供一个易于扩展的统一平台,并可用于NER中的转移学习研究和实际应用,从而弥合这些领域算法进步之间的差距。该框架位于:https://github.com/suamin/t2ner.
选集ID:
2021.每个演示25
体积:
计算语言学协会欧洲分会第16届会议记录:系统演示
月份:
四月
年份:
2021
地址:
在线的
编辑:
迪米特拉·格卡齐亚,杰梅·塞达
地点:
EACL公司
信号:
发布者:
计算语言学协会
注:
页:
212–220
语言:
网址:
https://aclantology.org/2021.eacl-demos.25
内政部:
10.18653/v1/2021.eacl-demos.25
比比键:
引用(ACL):
Saadullah Amin和Guenter Neumann。2021T2NER:基于变形金刚的命名实体识别迁移学习框架.英寸计算语言学协会欧洲分会第16届会议记录:系统演示,第212-220页,在线。计算语言学协会。
引用(非正式):
T2NER:基于变形金刚的命名实体识别迁移学习框架(阿明和诺依曼,EACL 2021)
复制引文:
PDF格式:
https://aclantology.org/2021.eacl-demos.25.pdf
可选补充材料:
2021.eacl-demos.25.可选补充材料.zip