@进行中{wu-yarowsky-2022稳健性,title=“关于同源生成模型的稳健性”,author=“Wu、Winston和David Yarowsky“,editor=“Calzolari、Nicoletta和B{\'e}chet、Fr{\'e}d{\'e}ric和Blache、Philippe和Choukri、Khalid和Cieri、Christopher和Declerck、Thierry和戈吉、萨拉和Isahara、Hitoshi和Maegaard、Bente和玛丽亚尼、约瑟夫和Mazo、H{\'e}l{\`e}ne和Odijk、Jan和Piperidis,Stelios“,booktitle=“第十三届语言资源与评价会议论文集”,月=六月,年=“2022”,address=“法国马赛”,publisher=“欧洲语言资源协会”,url=“https://aclantology.org/2022.lrec-1.458”,pages=“4299--4305”,abstract=“我们评估了两种流行的神经同源生成模型{'}对几种人类可信噪声(删除、复制、交换和键盘错误,以及一种新型错误,语音错误)的鲁棒性我们发现,重复和语音替换的危害最小,而其他类型的错误则有害。我们针对每种错误类型对模型{'}结果进行了深入分析,以解释这些模型的表现方式和原因。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“wu-yarowsky-2022-robust”><标题信息>关于同源生成模型的稳健性</titleInfo><name type=“个人”>温斯顿<namePart type=“family”>吴</namePart><角色>作者</角色></name><name type=“个人”>大卫雅罗斯基<角色>作者</角色></name><originInfo>2022-06发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第十三届语言资源与评估会议记录</titleInfo><name type=“个人”>尼科莱塔卡尔佐拉里<角色>编辑器</角色></name><name type=“个人”>弗雷德里克贝歇<角色>编辑器</角色></name><name type=“个人”><namePart type=“given”>菲利普</namePart>布莱切<角色>编辑器</角色></name><name type=“个人”>哈立德乔克里<角色>编辑器</角色></name><name type=“个人”>克里斯托弗Cieri公司<角色>编辑器</角色></name><name type=“个人”>蒂埃里Declerck公司<角色>编辑器</角色></name><name type=“个人”>萨拉戈吉<角色>编辑器</角色></name><name type=“个人”><namePart type=“given”>Hitoshi</namePart><namePart type=“family”>伊萨哈拉</namePart><角色>编辑器</角色></name><name type=“个人”>Bente(本特)梅加德<角色>编辑器</角色></name><name type=“个人”>约瑟夫玛丽亚尼<角色>编辑器</角色></name><name type=“个人”>Hélène<namePart type=“family”>马祖<角色>编辑器</角色></name><name type=“个人”>一月奥迪jk<角色>编辑器</角色></name><name type=“个人”>Stelios公司哌啶虫<角色>编辑器</角色></name><originInfo>欧洲语言资源协会<位置>法国马赛</place></originInfo>会议出版物</relatedItem><摘要>我们评估了两种流行的神经同源生成模型对几种人类可信噪声(删除、复制、交换和键盘错误,以及一种新型错误,语音错误)的鲁棒性。我们发现,重复和语音替换的危害最小,而其他类型的错误则有害。我们针对每种错误类型对模型的结果进行了深入分析,以解释这些模型的表现方式和原因。</abstract>wu-yarowsky-2022鲁棒性<位置><网址>https://aclantology.org/2022.lrec-1.458</url></位置><部分>2022-06年<扩展单元=“page”><开始>4299</开始>4305年</范围></部分></mods></modsCollection>
%0会议记录%关于同源生成模型的稳健性%温斯顿·A Wu%A Yarowsky,大卫%尼科莱塔·Y·卡尔佐拉里%Y Béchet,Frédéric%Y Blache,菲利普%哈立德·朱克里%克里斯托弗·西埃里%蒂埃里·德克勒克%Y Goggi,萨拉%Y Isahara,Hitoshi%Y Maegaard,本特%约瑟夫·马里亚尼%耶鲁·马佐%Y Odijk,简%Y Piperidis、Stelios%第十三届语言资源与评价会议论文集%D 2022年%6月8日%I欧洲语言资源协会%C马赛,法国%F wu-yarowsky-2022鲁棒性%X我们评估了两种流行的神经同源生成模型对几种人类可信噪声(删除、复制、交换和键盘错误,以及一种新型错误,语音错误)的鲁棒性。我们发现,重复和语音替换的危害最小,而其他类型的错误则有害。我们针对每种错误类型对模型的结果进行了深入分析,以解释这些模型的表现方式和原因。%U型https://aclantology.org/2022.lrec-1.458%电话:4299-4305
降价(非正式)
[关于同源生成模型的稳健性](https://aclantology.org/2022.lrec-1.458)(Wu&Yarowsky,LREC 2022)
国际计算语言学协会
- Winston Wu和David Yarowsky。2022关于同源生成模型的稳健性.英寸第十三届语言资源与评价会议记录,第4299–4305页,法国马赛。欧洲语言资源协会。