@正在进行{velichkov-etal-2021比较,title=“针对{ICD}-10语言分类任务的优化深度学习语言模型的比较分析”,author=“Velichkov、Boris和瓦西列娃、西尔维亚和Gerginov、Simeon和Kraychev、Boris和伊万诺夫、伊瓦约和伊万诺夫、菲利普和科切夫、伊凡和斯维特拉·博伊切娃”,editor=“米特科夫、鲁斯兰和加利亚安吉洛娃”,booktitle=“自然语言处理最新进展国际会议论文集(RANLP 2021)”,月=9月,年=“2021”,address=“保持在线”,publisher=“INCOMA有限公司”,url=“https://aclcollectory.org/2021.ranlp-1.162”,pages=“1448--1454”,抽象=“将自动诊断编码为标准医学分类和本体论的任务在医学中非常重要,它既支持医生在准备和报告临床文档时的日常任务,也支持临床报告的自动处理。本文研究了其应用和性能保加利亚临床文本ICD-10中自动编码的不同深度学习变换器。比较分析试图找出哪种方法更有效地用于微调预训练的BERT族转换器,以处理保加利亚语等罕见语言的特定领域术语。一方面是使用SlavicBERT和MultiligualBERT,这两种语言已经过保加利亚通用词汇的预训练,但缺乏医学术语。另一方面,在分析中使用了BioBERT、ClinicalBERT、SapBERT、BlueBERT,它们都经过了英语医学术语的预培训,但缺乏保加利亚语语言模型的培训,更多的是西里尔语词汇的培训。在我们的研究中,所有BERT模型都与保加利亚语的其他医学文本进行了微调,然后应用于分类任务,将保加利亚语的医学诊断编码为ICD-10代码。分类任务使用带有ICD-10代码注释的保加利亚大型诊断语料库。这样的分析很好地说明了哪些模型适合于类似类型和领域的任务。实验和评估结果表明,这两种方法具有相当的准确性。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“velichkov-etal-2021-比较”><标题信息>保加利亚语ICD-10分类任务精调深度学习语言模型对比分析</titleInfo><name type=“personal”><namePart type=“given”>Boris</namePart>Velichkov<角色>作者</角色></name><name type=“personal”>西尔维娅瓦西列娃<角色>作者</角色></name><name type=“personal”>Simeon(西蒙)杰基诺夫<角色>作者</角色></name><name type=“personal”>鲍里斯克莱切夫<角色>作者</角色></name><name type=“personal”>艾维洛伊万诺夫<角色>作者</角色></name><name type=“personal”>菲利普伊万诺夫<角色>作者</角色></name><name type=“personal”>伊凡科切夫<角色>作者</角色></name><name type=“personal”>斯维特拉博伊切娃<角色>作者</角色></name><originInfo><发布日期>2021-09</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>自然语言处理最新进展国际会议(RANLP 2021)会议记录</titleInfo><name type=“personal”>鲁斯兰米特科夫<角色>编辑器</角色></name><name type=“personal”>加利亚安吉洛娃<角色>编辑器</角色></name><originInfo>INCOMA有限公司<地点>在线保持</place></originInfo>会议出版物</relatedItem><摘要>将自动诊断编码为标准医学分类和本体的任务在医学中非常重要,这既可以支持医生编写和报告临床文档的日常任务,也可以支持临床报告的自动处理。本文研究了不同深度学习变换器在保加利亚临床文本ICD-10自动编码中的应用和性能。比较分析试图找出哪种方法更有效地用于微调预训练的BERT族转换器,以处理保加利亚语等罕见语言的特定领域术语。一方面是使用SlavicBERT和MultiligualBERT,这两种语言已经过保加利亚通用词汇的预训练,但缺乏医学术语。另一方面,在分析中使用了BioBERT、ClinicalBERT、SapBERT、BlueBERT,它们都经过了英语医学术语的预培训,但缺乏保加利亚语语言模型的培训,更多的是西里尔语词汇的培训。在我们的研究中,所有BERT模型都与保加利亚语的其他医学文本进行了微调,然后应用于分类任务,将保加利亚语的医学诊断编码为ICD-10代码。保加利亚语诊断的大语料库注释有ICD-10代码,用于分类任务。这样的分析很好地说明了哪些模型适合于类似类型和领域的任务。实验和评估结果表明,这两种方法具有相当的准确性</摘要>velichkov-etal-2021-比较<位置><网址>https://aclantology.org/2021.ranlp-1.162</url></位置><部分>2021-09年<日期><扩展单元=“page”><开始>1448</开始>1454年</范围></部分></mods></modsCollection>
%0会议记录%保加利亚语ICD-10分类任务的微调深度学习语言模型的T比较分析%鲍里斯·维利奇科夫%西尔维亚·瓦西列娃%A Gerginov,西蒙%A Kraychev,Boris鲍里斯%伊万诺夫,伊万洛%菲利普·伊万诺夫%伊凡·科切夫%斯维特拉·博伊切娃%鲁斯兰·米特科夫%加利亚Y Angelova%自然语言处理最新进展国际会议论文集(RANLP 2021)%D 2021年%9月8日%I INCOMA有限公司。%C在线举行%F velichkov-etal-2021比较%X将自动诊断编码为标准医学分类和本体的任务在医学中非常重要,这既可以支持医生在准备和报告临床文档时的日常任务,也可以支持临床报告的自动处理。本文研究了不同深度学习变换器在保加利亚临床文本ICD-10自动编码中的应用和性能。对比分析试图找出哪种方法更有效地用于微调预处理BERT系列变压器,以处理保加利亚语这一罕见语言的特定领域术语。一方面是使用SlavicBERT和MultiligualBERT,这两种语言已经过保加利亚通用词汇的预训练,但缺乏医学术语。另一方面,在分析中使用了BioBERT、ClinicalBERT、SapBERT、BlueBERT,它们都经过了英语医学术语的预培训,但缺乏保加利亚语语言模型的培训,更多的是西里尔语词汇的培训。在我们的研究中,所有BERT模型都与保加利亚语的其他医学文本进行了微调,然后应用于分类任务,将保加利亚语的医学诊断编码为ICD-10代码。分类任务使用带有ICD-10代码注释的保加利亚大型诊断语料库。这样的分析很好地说明了哪些模型适合于类似类型和领域的任务。实验和评估结果表明,这两种方法具有相当的准确性。%U型https://acl选集.org/2021.ranlp-1.162%电话1448-1454
降价(非正式)
[保加利亚语ICD-10分类任务精细化深度学习语言模型对比分析](https://aclantology.org/2021.ranlp-1.162)(Velichkov等人,RANLP 2021)
国际计算语言学协会
- 鲍里斯·维利奇科夫(Boris Velichkov)、西尔维亚·瓦西列娃(Sylvia Vassileva)、西蒙·格尔吉尼诺夫(Simeon Gerginov)、鲍里斯·克莱切夫(Boris-Kraychev)、伊瓦约洛·伊万诺夫(Ivaylo Ivanov)、菲利普·伊万诺夫(Philip I。2021保加利亚语ICD-10分类任务精细化深度学习语言模型的比较分析.英寸自然语言处理最新进展国际会议记录(RANLP 2021),第1448–1454页,在线保存。INCOMA有限公司。。