@进行中{mysore-sathyendra-etal-2020-极限,title=“用于设备上自然语言理解的极端模型压缩”,author=“Mysore Sathyendra、Kanthashree和Choudhary、Samridhi和Nicolich Henkin,Leah”,editor=“克利夫顿、安和那不勒斯,考特尼”,booktitle=“第28届计算语言学国际会议论文集:行业轨迹”,月=12月,年=“2020”,address=“在线”,publisher=“国际计算语言学委员会”,url=“https://aclantology.org/2020.coling-industry.15”,doi=“10.18653/v1/2020.coling-industry.15”,pages=“160--171”,abstract=“在本文中,我们提出并实验了神经自然语言理解(NLU)的极端压缩技术模型,使其适合在资源受限的设备上执行。我们提出了一种任务软件、端到端压缩方法,该方法结合NLU任务学习执行字嵌入压缩。我们展示了我们在一个大规模商业NLU系统上的结果,该系统训练了大量词汇的各种意图。我们的方法优于一系列基线,实现了97.4{\%}的压缩率,预测性能下降不到3.7{\%neneneep。我们的分析表明,来自下游任务的信号对于有效压缩非常重要,性能退化最小。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“mysore-sathyendra-etal-2020极限”><标题信息>用于设备上自然语言理解的极端模型压缩</titleInfo><name type=“personal”>康塔什利迈索尔·萨提恩德拉<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Samridhi</namePart>乔达里<角色>作者</角色></name><name type=“personal”>Leah(Leah)<namePart type=“family”>Nicolich Henkin</namePart><角色>作者</角色></name><originInfo><发布日期>2020-12</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第28届国际计算语言学会议论文集:行业跟踪</titleInfo><name type=“personal”>安克利夫顿<角色>编辑器</角色></name><name type=“personal”>考特尼那不勒斯<角色>编辑器</角色></name><originInfo>国际计算语言学委员会<位置>在线</place></originInfo>会议出版物</relatedItem>在本文中,我们提出并实验了神经自然语言理解(NLU)模型的极端压缩技术,使其适合在资源约束设备上执行。我们提出了一种任务软件、端到端压缩方法,该方法结合NLU任务学习执行字嵌入压缩。我们展示了我们在一个大规模商业NLU系统上的结果,该系统训练了大量词汇的各种意图。我们的方法优于一系列基线,实现了97.4%的压缩率,预测性能下降不到3.7%。我们的分析表明,来自下游任务的信号对于有效压缩非常重要,性能退化最小</摘要>mysore-sathyendra-etal-2020极限<identifier type=“doi”>10.18653/v1/2020。科林工业。15</identifier><位置><网址>https://aclantology.org/2020.coling-industry.15</url></位置><部分>2020-12年<日期><扩展单元=“page”><开始>160<end>171</范围></部分></mods></modsCollection>
%0会议记录%用于设备自然语言理解的T极端模型压缩%迈索尔·萨提恩德拉,坎塔什利%A Choudhary,萨姆里奇%A Nicolich-Henkin,莉亚%安·Y·克利夫顿%Y那不勒斯,考特尼%第28届国际计算语言学会议论文集:行业跟踪%D 2020年%12月8日%国际计算语言学委员会%C在线%F mysore-sathyendra-etal-2020极限%X在本文中,我们提出并实验了神经自然语言理解(NLU)模型的极端压缩技术,使其适合在资源受限的设备上执行。我们提出了一种任务软件、端到端压缩方法,该方法结合NLU任务学习执行字嵌入压缩。我们展示了我们在一个大规模商业NLU系统上的结果,该系统训练了大量词汇的各种意图。我们的方法优于一系列基线,实现了97.4%的压缩率,预测性能下降不到3.7%。我们的分析表明,来自下游任务的信号对于有效压缩非常重要,性能退化最小。%R 10.18653/v1/2020工业版15%U型https://aclantology.org/2020.coling-industry.15%单位https://doi.org/10.18653/v1/2020.coling-industry.15%电话:160-171
降价(非正式)
[用于设备上自然语言理解的极端模型压缩](https://aclantology.org/2020.coling-industry.15)(Mysore Sathyendra等人,COLING 2020)
国际计算语言学协会
- Kanthashree Mysore Sathyendra、Samridhi Choudhary和Leah Nicolich-Henkin。2020用于设备上自然语言理解的极限模型压缩.英寸第28届计算语言学国际会议论文集:行业跟踪,第160–171页,在线。国际计算语言学委员会。