@正在进行{cai-etal-2022-context,title=“使用大型语言模型扩展上下文软件缩写”,author=“蔡善清Venugopalan、Subhashini和托马内克、凯特琳和Narayanan、Ajit和莫里斯、梅雷迪斯和Michael Brenner”,editor=“Carpuat、Marine和德马内夫、玛丽·凯瑟琳和Meza Ruiz,Ivan Vladimir“,booktitle=“计算语言学协会北美分会2022年会议记录:人类语言技术”,月=七月,年=“2022”,address=“美国西雅图”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.naacl-main.91”,doi=“10.18653/v1/2022.naacl-main.91”,pages=“1261--1275”,abstract=“由于需要在增强和替代通信(AAC)中加速文本输入对于有严重运动障碍的人,我们提出了一种范式,其中短语被激进地缩写为主要的单词首字母。我们的方法是利用对话上下文和预处理大型语言模型(LLM)的强大功能,将缩写扩展为完整短语选项。通过对四个公共对话数据集的零快照、少快照和微调实验,我们表明,对于对对话初始回合的回复,具有64B参数的LLM能够准确地扩展超过70个缩写长度高达10的短语,从而使有效的击键节省率达到约77{%%}在这些精确的扩展上。与没有上下文相比,以一次对话的形式包含少量上下文会使缩写扩展的准确性提高一倍以上,这种效果对于较长的短语更为明显。此外,通过对噪声数据进行微调,可以增强模型对输入错误噪声的鲁棒性。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“cai-etal-2022-context”><标题信息>使用大型语言模型进行上下文软件缩写扩展</title信息><name type=“personal”>山青<namePart type=“family”>蔡</namePart><角色>作者</角色></name><name type=“personal”>Subhashini维努戈帕兰<角色>作者</角色></name><name type=“personal”>凯特琳<namePart type=“family”>托马内克</namePart><角色>作者</角色></name><name type=“personal”>味精纳拉亚南<角色>作者</角色></name><name type=“personal”>梅雷迪思莫里斯<角色>作者</角色></name><name type=“personal”>迈克尔布伦纳<角色>作者</角色></name><originInfo>2022-07发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会北美分会2022年会议记录:人类语言技术</title信息><name type=“personal”><namePart type=“given”>海洋</namePart>卡普阿特<角色>编辑器</角色></name><name type=“personal”>玛丽·凯瑟琳马内夫<角色>编辑器</角色></name><name type=“personal”>伊凡弗拉基米尔梅扎·鲁伊斯<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>美国西雅图</place></originInfo>会议出版物</relatedItem><abstract>出于在严重运动障碍患者的增强交流和替代交流(AAC)中加速文本输入的需要,我们提出了一种范式,其中短语被积极缩写为主要的单词首字母。我们的方法是利用对话上下文和预处理大型语言模型(LLM)的强大功能,将缩写扩展为完整短语选项。通过对四个公共对话数据集的零快照、少快照和微调实验,我们表明,对于对话的初始回合的回复,具有64B参数的LLM能够准确地扩展70%以上的缩写长度为10、,在这些精确扩展上,有效的击键节省率高达77%。与没有上下文相比,以一次对话的形式包含少量上下文会使缩写扩展的准确性提高一倍以上,这种效果对于较长的短语更为明显。此外,通过对噪声数据进行微调,可以增强模型对输入错误噪声的鲁棒性</摘要>cai-etal-2022-context<identifier type=“doi”>10.18653/v1/2022.naacl main.91</identifier><位置><网址>https://aclantology.org/2022.naacl-main.91</url></位置><部分>2022-07年<扩展单元=“page”><开始>12611275年年底</范围></部分></mods></modsCollection>
%0会议记录%使用大型语言模型的T上下文软件缩写扩展%阿才、山青%A Venugopalan,苏巴西尼%卡特琳,托马内克%A Narayanan,阿吉特%梅雷迪斯·莫里斯%迈克尔·布伦纳%Y Carpuat,海军%玛丽·凯瑟琳Y de Marneffe%Y Meza Ruiz,伊万·弗拉基米尔%计算语言学协会北美分会2022年会议记录:人类语言技术%D 2022年%7月8日%计算语言学协会%C美国西雅图%F cai-etal-2022上下文%X出于在严重运动障碍患者的增强交流和替代交流(AAC)中加速文本输入的需要,我们提出了一种范式,其中短语被积极缩写为主要的单词首字母。我们的方法是利用对话上下文和预处理大型语言模型(LLM)的强大功能,将缩写扩展为完整短语选项。通过对四个公共对话数据集的零快照、少快照和微调实验,我们表明,对于对话的初始回合的回复,具有64B参数的LLM能够准确地扩展70%以上的缩写长度为10、,在这些精确扩展上,有效的击键节省率高达77%。与没有上下文相比,以一次对话的形式包含少量上下文会使缩写扩展的准确性提高一倍以上,这种效果对于较长的短语更为明显。此外,通过对噪声数据进行微调,可以增强模型对输入错误噪声的鲁棒性。%R 10.18653/v1/2022.naacl-main.91%U型https://aclantology.org/2022.naacl-main.91%U型https://doi.org/10.18653/v1/2022.naacl-main.91%电话1261-1275
降价(非正式)
[使用大型语言模型扩展上下文软件缩写](https://aclantology.org/2022.naacl-main.91)(Cai等人,NAACL 2022)
国际计算语言学协会
- 蔡善卿(Shanqing Cai)、苏巴西尼·维努戈帕兰(Subhashini Venugopalan)、凯特琳·托马内克(Katrin Tomanek)、阿吉特·纳拉亚南(Ajit Narayanan)、梅雷迪思·莫里斯(Meredith Morris)和迈克尔·。2022使用大型语言模型的上下文软件缩写扩展.英寸计算语言学协会北美分会2022年会议记录:人类语言技术第1261–1275页,美国西雅图。计算语言学协会。