@进料{amin-neumann-2021-t2ner,title=“{T}2{NER}:基于变形金刚的命名实体识别迁移学习框架”,author=“阿明、萨杜拉和Neumann,Guenter”,editor=“Gkatzia、Dimitra和Seddah,Djam{\ee}“,booktitle=“计算语言学协会欧洲分会第十六届会议记录:系统演示”,月份=4r,年=“2021”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.eacl-demos.25”,doi=“10.18653/v1/2021.eacl-demos.25”,pages=“212--220”,abstract=“深度变换器模型的最新进展在几个自然语言处理(NLP)任务中取得了最新进展,而命名实体识别(NER)传统上受益于长短记忆(LSTM)网络。在这项工作中,我们提出了一个基于Transformers的命名实体识别(T2NER)传输学习框架,该框架是在PyTorch中创建的,用于使用深度变换器模型进行命名实体识别。该框架以Transformers库为核心建模引擎构建,支持从顺序转移到域适应、多任务学习和半监督学习的多种转移学习场景。它旨在将这些领域的算法进步与最先进的变压器模型相结合,以提供一个易于扩展的统一平台,并可用于NER中的转移学习研究和实际应用,从而弥合这些领域算法进步之间的差距。该框架位于:\url{https://github.com/suamin/t2ner}。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“amin-neumann-2021-t2ner”><标题信息>T2NER:基于变形金刚的命名实体识别迁移学习框架</titleInfo><name type=“personal”>萨杜拉语阿明(Amin)<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Guenter</namePart>纽曼<角色>作者</角色></name><originInfo>2021-04发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会欧洲分会第16届会议记录:系统演示</titleInfo><name type=“personal”>迪米特拉格卡齐亚<角色>编辑器</角色></name><name type=“personal”>DjameSeddah(塞达)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>深度变换器模型的最新进展在一些自然语言处理(NLP)任务中取得了最新进展,而命名实体识别(NER)传统上受益于长短期记忆(LSTM)网络。在这项工作中,我们提出了一个基于Transformers的命名实体识别(T2NER)传输学习框架,该框架是在PyTorch中创建的,用于使用深度变换器模型进行命名实体识别。该框架以Transformers库为核心建模引擎构建,支持从顺序转移到域适应、多任务学习和半监督学习的多种转移学习场景。它旨在将这些领域的算法进步与最先进的变压器模型相结合,以提供一个易于扩展的统一平台,并可用于NER中的转移学习研究和实际应用,从而弥合这些领域算法进步之间的差距。该框架位于:https://github.com/suamin/t2ner。</摘要><identifier type=“citekey”>amin-neumann-2021-t2ner10.18653/v1/2021.eacl-demos.25<位置><网址>https://aclantology.org/2021.eacl-demos.25</url></位置><部分>2021-04年<扩展单元=“page”><开始>212</开始><end>220</范围></部分></mods></modsCollection>
%0会议记录%T T2NER:基于变形金刚的命名实体识别迁移学习框架%阿明,萨杜拉%A Neumann,Guenter%迪米特拉·尤卡齐亚%Y Seddah,Djamé%计算语言学协会欧洲分会第16届会议记录:系统演示%D 2021年%4月8日%计算语言学协会%C在线%F氨基-2021-t2ner%X深度变换器模型的最新进展在几个自然语言处理(NLP)任务中取得了最先进的水平,而命名实体识别(NER)传统上受益于长短期记忆(LSTM)网络。在这项工作中,我们提出了一个基于Transformers的命名实体识别(T2NER)传输学习框架,该框架是在PyTorch中创建的,用于使用深度变换器模型进行命名实体识别。该框架以Transformers库为核心建模引擎,支持从顺序迁移到领域自适应、多任务学习和半监督学习的多种迁移学习场景。它旨在将这些领域的算法进步与最先进的变压器模型相结合,以提供一个易于扩展的统一平台,并可用于NER中的转移学习研究和实际应用,从而弥合这些领域算法进步之间的差距。该框架位于:https://github.com/suamin/t2ner。%R 10.18653/v1/2021年版,最新版本25%U型https://aclantology.org/2021.eacl-demos.25%U型https://doi.org/10.18653/v1/2021.eacl-demos.25%电话212-220
降价(非正式)
[T2NER:基于变形金刚的命名实体识别迁移学习框架](https://aclantology.org/2021.eacl-demos.25)(阿明和诺依曼,EACL 2021)
国际计算语言学协会