@进行中{barrena-etal-2018-learning,title=“学习500个{K}命名实体消歧分类任务的文本表示”,author=“Barrena、Ander和索罗亚、艾托和阿吉雷,埃内科“,editor=“Korhonen、Anna和“伊凡·蒂托夫”,booktitle=“第22届计算自然语言学习会议论文集”,月=10月,year=“2018”,address=“比利时布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/K18-1017”,doi=“10.18653/v1/K18-1017”,pages=“171--180”,抽象=“命名实体消歧算法通常为所有目标实体学习一个单一的模型。本文提出了一个单词专家模型,并为每个目标实体字符串训练单独的深度学习模型,产生500K分类任务。这为我们提供了在这个海量数据上对流行的文本表示方法进行基准测试的机会数据集。为了应对稀缺的训练数据,我们提出了一种简单的数据增强技术和转移学习。我们表明,对于训练数据稀少的任务,bagof-word-embedding比LSTM更好,而当训练数据量较大时,情况正好相反。对于所有频带的单词专家来说,传输在所有数据集上学习的LSTM是最有效的上下文表示选项。实验表明,我们的系统基于域外维基百科数据进行训练,优于基于域内训练数据进行训练的可比NED系统。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“barrena-etal-2018-learning”><标题信息>命名实体消歧500K分类任务的学习文本表示</titleInfo><name type=“personal”>安德尔巴雷纳<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>Aitor公司索罗亚<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>Eneko公司阿吉雷<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><originInfo>2018-10发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第22届计算自然语言学习会议记录</titleInfo><name type=“personal”>安娜Korhonen公司<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>伊凡蒂托夫<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><originInfo>计算语言学协会<位置>比利时布鲁塞尔</place></originInfo>会议出版物</relatedItem>命名实体消歧算法通常为所有目标实体学习一个模型。在本文中,我们提出了一个单词专家模型,并为每个目标实体串训练单独的深度学习模型,产生500K个分类任务。这使我们有机会在这个海量数据集上对流行的文本表示方法进行基准测试。为了面对稀缺的训练数据,我们提出了一种简单的数据扩充技术和迁移学习。我们表明,对于训练数据稀少的任务,bagof-word-embedding比LSTM更好,而当训练数据量较大时,情况正好相反。对于所有频带的单词专家来说,传输在所有数据集上学习的LSTM是最有效的上下文表示选项。实验表明,我们的系统基于域外维基百科数据进行训练,优于基于域内训练数据进行训练的可比NED系统</摘要><identifier type=“citekey”>barrena-etal 2018学习10.18653/v1/K18-1017<位置><网址>https://aclantology.org/K18-1017</url></位置><部分>2018-10年<扩展单元=“page”><开始>171<end>180</范围></部分></模块></modsCollection>
%0会议记录%500K分类任务中命名实体消歧的T学习文本表示%安德·巴雷纳%艾托尔·索罗阿%阿吉雷,埃内科%Y Korhonen,安娜%伊万·蒂托夫%第22届计算自然语言学习大会论文集%2018年D月%10月8日%计算语言学协会%C比利时布鲁塞尔%F barrena-etal 2018学习%X命名实体消歧算法通常为所有目标实体学习单个模型。本文提出了一个单词专家模型,并为每个目标实体字符串训练单独的深度学习模型,从而产生500K分类任务。这使我们有机会在这个海量数据集上对流行的文本表示方法进行基准测试。为了应对稀缺的训练数据,我们提出了一种简单的数据增强技术和转移学习。我们表明,对于训练数据稀少的任务,bagof-word-embedding比LSTM更好,而当训练数据量较大时,情况正好相反。对于所有频带的单词专家来说,传输在所有数据集上学习的LSTM是最有效的上下文表示选项。实验表明,我们的系统基于域外维基百科数据进行训练,优于基于域内训练数据进行训练的可比NED系统。%10.18653/v1/K18-1017兰特%U型https://aclantology.org/K18-1017%U型https://doi.org/10.18653/v1/K18-1017%电话171-180
降价(非正式)
[学习500K分类任务中命名实体消歧的文本表示](https://aclantology.org/K18-1017)(Barrena等人,CoNLL 2018)
国际计算语言学协会
- 安德·巴雷纳(Ander Barrena)、艾托·索罗亚(Aitor Soroa)和埃内科·阿吉雷(Eneko Agirer)。2018基于命名实体消歧的500K分类任务的学习文本表示.英寸第22届计算自然语言学习会议记录,第171-180页,比利时布鲁塞尔。计算语言学协会。