@正在进行{nguyen-etal-2021-trankit,title=“Trankit:基于轻量级变换的多语言自然语言处理工具包”,author=“Nguyen、Minh Van和赖、越南达卡和Pouran Ben Veyseh、Amir和Nguyen,Thien Huu“,editor=“Gkatzia、Dimitra和Seddah,Djam{\ee}“,booktitle=“计算语言学协会欧洲分会第十六届会议记录:系统演示”,月份=4r,年=“2021”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.eacl-demos.10”,doi=“10.18653/v1/2021.ecl演示.10”,pages=“80--90”,abstract=“我们介绍了Trankit,这是一个用于多语言自然语言处理(NLP)的基于转换器的轻量级工具包它为超过100种语言的基本NLP任务提供了一个可训练的管道,为56种语言提供了90个预训练管道。基于最先进的预处理语言模型,Trankit在句子分割、部分语言标记、形态特征标记和依存分析方面显著优于先前的多语言NLP管道,同时在标记化、多词标记扩展、,以及对90个Universal Dependencies树库进行柠檬化。尽管使用了大型预处理转换器,但我们的工具包在内存使用和速度方面仍然很高效。这是通过我们使用Adapters的新型即插即用机制实现的,其中多语言预处理转换器在不同语言的管道之间共享。我们的工具包以及预处理的模型和代码可在以下网址公开获得:\url{https://github.com/nlp-uoregon/trankit}。我们工具包的演示网站也位于:\url{http://nlp.uoregon.edu/trankit}。最后,我们为Trankit创建了一个演示视频:\url{https://youtu.be/q0KGP3zGjGc}。”,}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“nguyen-etal-2021-trankit”><标题信息>Trankit:基于轻量级变换的多语言自然语言处理工具包</titleInfo><name type=“personal”><namePart type=“given”>明</namePart>货车<namePart type=“family”>阮</namePart><角色>作者</角色></name><name type=“personal”>越南<namePart type=“given”>Dac赖<角色>作者</角色></name><name type=“personal”>Amir(阿米尔)波兰·本·韦瑟<角色>作者</角色></name><name type=“personal”>蒂恩Huu(Huu)<namePart type=“family”>阮</namePart><角色>作者</角色></name><originInfo>2021-04发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会欧洲分会第16届会议记录:系统演示</titleInfo><name type=“personal”>迪米特拉格卡齐亚<角色>编辑器</角色></name><name type=“personal”>DjameSeddah(塞达)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem><abstract>我们介绍了Trankit,这是一个用于多语言自然语言处理(NLP)的基于转换器的轻量级工具包。它为超过100种语言的基本NLP任务提供了一个可训练的管道,为56种语言提供了90个预训练管道。基于最先进的预处理语言模型,Trankit在句子分割、部分语言标记、形态特征标记和依存分析方面显著优于先前的多语言NLP管道,同时在标记化、多词标记扩展、,以及对90个Universal Dependencies树库进行柠檬化。尽管使用了大型预处理转换器,但我们的工具包在内存使用和速度方面仍然很高效。这是通过我们使用Adapters的新型即插即用机制实现的,其中多语言预处理转换器在不同语言的管道之间共享。我们的工具包以及预处理模型和代码可在以下网站上公开获取:https://github.com/nlp-uoregon/trankit。我们工具包的演示网站也可以在以下网址上找到:http://nlp.uoregon.edu/trankit。最后,我们为Trankit创建了一个演示视频:https://youtu.be/q0KGP3zGjGc。</摘要>nguyen-etal-2021-trankit10.18653/v1/2021.eacl-demos.10<位置><网址>https://aclantology.org/2021.eacl-demos.10网址</url></位置><部分>2021-04年<扩展单元=“page”><开始>80</开始><end>90</范围></部分></mods></modsCollection>
%0会议记录%T Trankit:基于轻量级变换的多语言自然语言处理工具包%阿阮明文%越南阿来%阿米尔·A Pouran Ben Veyseh%阿阮,Thien Huu%迪米特拉·尤卡齐亚%Y Seddah,Djamé%计算语言学协会欧洲分会第16届会议记录:系统演示%D 2021年%4月8日%计算语言学协会%C在线%F nguyen-etal-2021-trankit公司%X我们介绍Trankit,这是一个用于多语言自然语言处理(NLP)的基于转换器的轻量级工具包。它为超过100种语言的基本NLP任务提供了一个可训练的管道,为56种语言提供了90个预训练管道。基于最先进的预处理语言模型,Trankit在句子分割、部分语言标记、形态特征标记和依存分析方面显著优于先前的多语言NLP管道,同时在标记化、多词标记扩展、,以及对90个Universal Dependencies树库进行柠檬化。尽管使用了大型预处理转换器,但我们的工具包在内存使用和速度方面仍然很高效。这是通过我们使用Adapters的新型即插即用机制实现的,其中多语言预处理转换器在不同语言的管道之间共享。我们的工具包以及预处理模型和代码可在以下网站上公开获取:https://github.com/nlp-uoregon/trankit。我们工具包的演示网站也可以在以下网址上找到:http://nlp.uoregon.edu/trankit。最后,我们为Trankit创建了一个演示视频:https://youtu.be/q0KGP3zGjGc。%R 10.18653/v1/2021.eacl-demos.10版本%U型https://aclantology.org/2021.eacl-demos.10网址%U型https://doi.org/10.18653/v1/2021.eacl-demos.10%电话80-90
降价(非正式)
[Trankit:基于轻量级变换的多语言自然语言处理工具包](https://aclantology.org/2021.eacl-demos.10网址)(Nguyen等人,EACL 2021)
国际计算语言学协会
- Minh Van Nguyen、Vieta Dac Lai、Amir Pouran Ben Veyseh和Thien Huu Nguyen。2021Trankit:基于轻量级变换的多语言自然语言处理工具包.英寸计算语言学协会欧洲分会第16届会议记录:系统演示,第80–90页,在线。计算语言学协会。