@正在进行{labrak-etal-2023-drbert,title=“{D}r{BERT}:生物医学和临床领域{F}网格中的稳健预训练模型”,author=“拉布拉克、亚尼斯和巴佐格、阿德里安和杜福尔、理查德和Rouvier、Mickael和莫林、伊曼纽尔和Daille、B{'e}atrie和皮埃尔·安托因·古拉德”,editor=“罗杰斯、安娜和Boyd-Graber、Jordan和冈崎、直崎“,booktitle=“计算语言学协会第61届年会会议记录(第1卷:长篇论文)”,月=七月,年=“2023”,address=“加拿大多伦多”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.acl-long.896”,doi=“10.18653/v1/2023.acl-long.896”,pages=“16207--16221”,abstract=“近年来,预训练语言模型(PLM)在广泛的自然语言处理(NLP)中取得了最佳性能任务。虽然第一批模型是在一般领域数据上训练的,但已经出现了专门的模型来更有效地处理特定领域。在本文中,我们提出了一项关于法语医学领域PLM的原创性研究。我们首次比较了基于网络公共数据和医疗机构私人数据训练的PLM的性能。我们还评估了一组生物医学任务的不同学习策略。特别是,我们表明,通过进一步对目标数据进行预处理,我们可以利用外语中已有的生物医学PLM。最后,我们发布了法语生物医学领域的第一个专用PLM,称为DrBERT,以及在免费许可下训练这些模型的最大医学数据语料库。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“labrak-etal-2023-drbert”><标题信息>DrBERT:一个适用于生物医学和临床领域的法语稳健预训练模型</titleInfo><name type=“personal”>亚尼斯Labrak实验室<角色>作者</角色></name><name type=“personal”>阿德里安Bazoge公司<角色>作者</角色></name><name type=“personal”>理查德<namePart type=“family”>Dufour</namePart><角色>作者</角色></name><name type=“personal”>米凯尔鲁维尔<角色>作者</角色></name><name type=“personal”>艾曼纽尔莫林<角色>作者</角色></name><name type=“personal”>儿科戴乐<namePart type=“family”><角色>作者</角色></name><name type=“personal”>皮尔雷·安东尼古拉德<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会第61届年会会议记录(第1卷:长篇论文)</titleInfo><name type=“personal”>安娜罗杰斯<角色>编辑器</角色></name><name type=“personal”>约旦博伊德·格雷伯<角色>编辑器</角色></name><name type=“personal”>直崎<namePart type=“given”>冈崎<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多</place></originInfo>会议出版物</relatedItem><abstract>近年来,预训练语言模型(PLM)在各种自然语言处理(NLP)任务中都取得了最佳性能。虽然第一个模型是基于一般领域数据进行训练的,但出现了更有效地处理特定领域的专门模型。在本文中,我们提出了一项关于法语医学领域PLM的原创性研究。我们首次比较了基于网络公共数据和医疗机构私人数据训练的PLM的性能。我们还评估了一组生物医学任务的不同学习策略。特别是,我们表明,通过进一步对目标数据进行预处理,我们可以利用外语中已有的生物医学PLM。最后,我们发布了法语生物医学领域的第一个专用PLM,称为DrBERT,以及在免费许可下训练这些模型的最大医学数据语料库</摘要>labrak-etal-2023-drbert标签10.18653/v1/2023.acl-long.896<位置><网址>https://aclantology.org/2023.acl-long.896</url></位置><部分><日期>2023-07</日期><扩展单元=“page”><开始>1620716221年</范围></部分></mods></modsCollection>
%0会议记录%T DrBERT:用于生物医学和临床领域的法语稳健预训练模型%亚尼斯拉布拉克%阿德里安·巴佐格%一个公爵,Richard%米凯尔·罗维尔%艾曼纽尔·莫林%Béatrice Daille%A Gourraud、Pierre-Antoine%安娜·罗杰斯%Y Boyd-Graber,约旦%Y冈崎,直崎%计算语言学协会第61届年会论文集(第一卷:长篇论文)%D 2023年%7月8日%I计算语言学协会%C加拿大多伦多%F labrak-etal-2023-drbert公司%近年来,预训练语言模型(PLM)在广泛的自然语言处理(NLP)任务中取得了最佳性能。虽然第一个模型是基于一般领域数据进行训练的,但出现了更有效地处理特定领域的专门模型。在本文中,我们提出了一项关于法语医学领域PLM的原创性研究。我们首次比较了基于网络公共数据和医疗机构私人数据训练的PLM的性能。我们还评估了一组生物医学任务的不同学习策略。特别是,我们表明,通过进一步对目标数据进行预处理,我们可以利用外语中已有的生物医学PLM。最后,我们用法语发布了生物医学领域的第一个专门PLM,称为DrBERT,以及在免费许可下训练这些模型的最大医疗数据库。%R 10.18653/v1/2023.acl长896%U型https://aclantology.org/2023.acl-long.896%U型https://doi.org/10.18653/v1/2023.acl-long.896%电话:16207-16221
降价(非正式)
[DrBERT:法国生物医学和临床领域的稳健预训练模型](https://aclantology.org/2023.acl-long.896)(Labrak等人,ACL 2023)
国际计算语言学协会
- Yanis Labrak、Adrien Bazoge、Richard Dufour、Mickael Rouvier、Emmanuel Morin、Béatrice Daille和Pierre Antoine Gourraud。2023DrBERT:用于生物医学和临床领域的法语稳健预训练模型.英寸计算语言学协会第61届年会论文集(第一卷:长篇论文),第16207–16221页,加拿大多伦多。计算语言学协会。