@正在进行{yin-etal-2018-ircms,title=“{IRCMS}位于{S} em(电子){E} 2018年5月任务7:评估关系分类的基本{CNN}方法和传统流水线方法”,author=“尹、中波和罗、准钦和罗、伟和Bin、Mao和田、长海和叶玉明和吴帅“,editor=“Apidianaki、Marianna和穆罕默德、赛义夫·M·和梅、乔纳森和舒托娃、叶卡捷琳娜和Bethard、Steven和Carpuat,海军陆战队”,booktitle=“第十二届语义评估国际研讨会论文集”,月=六月,年份=“2018”,address=“路易斯安那州新奥尔良”,publisher=“计算语言学协会”,url=“https://aclantology.org/S18-1129”,doi=“10.18653/v1/S18-1129”,pages=“811--815”,abstract=“本文介绍了我们参与2018年SemEval任务7:科学论文中的语义关系提取和分类(G{\'a}-bor等人,2018)中的子任务1(1.1和1.2)。我们使用两种方法对此任务进行了实验:CNN方法和传统流水线方法。我们使用了两个实体(包括)之间的上下文作为两种方法的输入信息,极大地降低了噪声影响。对于CNN方法,我们构造了一个简单的卷积神经网络来自动从原始文本中学习特征,而无需任何手动处理。此外,我们使用softmax函数将实体对划分为特定的关系类别。对于传统的管道方法,我们使用Hackabout方法作为表示,如第3.5节所述。CNN方法{'}的结果比传统流水线方法好得多(49.1{\%}对42.3{\%{和71.1{\%}对54.6{\%neneneep)。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“yin-etal-2018-ircms”><标题信息>2018年SemEval-2018 IRCMS任务7:评估基本CNN方法和传统管道方法的关系分类</titleInfo><name type=“个人”>中博<namePart type=“given”>尹(音)<角色>作者</角色></name><name type=“个人”>准钦罗<namePart type=“family”><角色>作者</角色></name><name type=“个人”>魏<namePart type=“given”>罗<namePart type=“family”><角色>作者</角色></name><name type=“个人”>毛箱子<角色>作者</角色></name><name type=“个人”>长海田<namePart type=“family”><角色>作者</角色></name><name type=“个人”>玉茗叶<角色>作者</角色></name><name type=“个人”>帅<namePart type=“family”>吴</namePart><角色>作者</角色></name><originInfo>2018-06发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第十二届语义评估国际研讨会论文集</titleInfo><name type=“个人”>玛丽安娜阿皮迪亚纳基<角色>编辑器</角色></name><name type=“个人”>赛义夫<namePart type=“given”>M</namePart>穆罕默德<角色>编辑器</角色></name><name type=“个人”>乔纳森五月<角色>编辑器</角色></name><name type=“个人”>叶卡捷琳娜舒托娃<角色>编辑器</角色></name><name type=“个人”>史蒂文贝瑟德<角色>编辑器</角色></name><name type=“个人”><namePart type=“given”>海洋</namePart><namePart type=“family”>卡普瓦特</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>路易斯安那州新奥尔良</place></originInfo>会议出版物</relatedItem><摘要>本文介绍了我们参与SemEval 2018任务7:科学论文中语义关系提取和分类的子任务1(1.1和1.2)(Gábor等人,2018)。我们用两种方法对这个任务进行了实验:CNN方法和传统的流水线方法。我们使用两个实体(包括)之间的上下文作为两种方法的输入信息,这极大地降低了噪声影响。对于CNN方法,我们构造了一个简单的卷积神经网络来自动从原始文本中学习特征,而无需任何手动处理。此外,我们使用softmax函数将实体对划分为特定的关系类别。对于传统的管道方法,我们使用Hackabout方法作为表示,如第3.5节所述。CNN方法的结果比传统管道方法好得多(49.1%对42.3%,71.1%对54.6%)</摘要>yin-etal-2018-ircms10.18653/v1/S18-1129<位置><网址>https://aclantology.org/S18-1129</url></位置><部分>2018-06年<扩展单元=“page”><开始>811</开始><end>815</范围></部分></mods></modsCollection>
%0会议记录%2018年SemEval-2018年T IRCMS任务7:评估基本CNN方法和传统管道方法的关系分类%阿寅、中波%阿罗,准钦%阿罗,魏%毛阿斌%长海阿田%A Ye,玉茗%阿武、帅%Y Apidianaki,玛丽安娜%Y Mohammad,Saif M。%Y May,乔纳森%叶卡捷琳娜·舒托娃%Y Bethard,Steven%Y Carpuat,海军%第十二届语义评价国际研讨会论文集%2018年D月%6月8日%计算语言学协会%C路易斯安那州新奥尔良%Fyin-etal-2018-ircms公司%X本文介绍了我们参与2018年SemEval任务7:科学论文中语义关系提取和分类的子任务1(1.1和1.2)(Gábor等人,2018)。我们用两种方法对这个任务进行了实验:CNN方法和传统的流水线方法。我们使用两个实体(包括)之间的上下文作为两种方法的输入信息,这极大地降低了噪声影响。对于CNN方法,我们构造了一个简单的卷积神经网络来自动从原始文本中学习特征,而无需任何手动处理。此外,我们使用softmax函数将实体对划分为特定的关系类别。对于传统的管道方法,我们使用Hackabout方法作为表示,如第3.5节所述。CNN方法的结果比传统管道方法好得多(49.1%对42.3%,71.1%对54.6%)。%10.18653/v1/S18-1129兰特%U型https://aclantology.org/S18-1129%U型https://doi.org/10.18653/v1/S8-1129%电话811-815
降价(非正式)
【2018年第二季度IRCMS任务7:评估基本CNN方法和传统管道方法的关系分类】(https://aclantology.org/S18-1129)(Yin等人,SemEval 2018)
国际计算语言学协会