@在过程中{zhang-etal-2023-hit,title=“{命中}-{MI}{\&}{T}实验室{'}提交给{E} 值4{NLP}2023共享任务“,author=“张、芮和宋福海黄、惠和袁、景浩和Yang、Muyun和赵铁军”,editor={Deutsch、Daniel和Dror、Rotem和Eger、Steffen和高、杨和莱特、克里斯托夫和Opitz、Juri和R{“u”}ckl{“e”},安德烈亚斯},booktitle=“NLP系统评估和比较第四次研讨会会议记录”,月=11月,年=“2023”,address=“印度尼西亚巴厘岛”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.eval4nlp-1.11",doi=“10.18653/v1/2023.eval4nlp-1.11”,pages=“139--148”,abstract=“最近,大型语言模型(LLM)推动了自然语言处理的研究,并在许多领域显示出令人印象深刻的能力,包括机器翻译评估。本文介绍了我们为Eval4NLP2023共享任务的机器翻译评估子任务开发的方法。基于所提供的LLM,我们提出了一种基于生成的方法和基于概率的方法来进行评估,探索了在选择上下文学习演示时的不同策略,并尝试了不同的集成方法来进一步提高评估准确性。在开发集和测试集上的实验结果证明了该方法的有效性。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhang-etal-2023-hit”><标题信息><title>HIT-MI&;T实验室提交给Eval4NLP 2023共享任务</title=</titleInfo><name type=“个人”>Rui(Rui)<namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>福海歌曲<角色>作者</角色></name><name type=“personal”>慧<namePart type=“given”>黄<namePart type=“family”><角色>作者</角色></name><name type=“个人”>净浩<namePart type=“given”>元<角色>作者</角色></name><name type=“personal”>沐云<namePart type=“given”>杨<角色>作者</角色></name><name type=“personal”><namePart type=“given”>铁军</namePart>赵<namePart type=“family”><角色>作者</角色></name><originInfo>2023-11年发布</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>NLP系统评估和比较第四次研讨会会议记录</titleInfo><name type=“personal”>丹尼尔德国<角色>编辑器</角色></name><name type=“personal”>Rotem(罗特姆)<namePart type=“family”>Dror</namePart>驱动程序<角色>编辑器</角色></name><name type=“personal”>斯特芬<namePart type=“family”>埃格尔<角色>编辑器</角色></name><name type=“personal”>杨(Yang)高<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>克里斯托夫莱特<角色>编辑器</角色></name><name type=“personal”>侏罗纪Opitz Opitz<角色>编辑器</角色></name><name type=“personal”>安德烈亚斯吕克尔<namePart type=“family”>Rücklé</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>印尼巴厘岛</place></originInfo>会议出版物</relatedItem>最近,大型语言模型(LLM)推动了自然语言处理的研究,并在许多领域显示出令人印象深刻的能力,包括机器翻译评估。本文介绍了我们为Eval4NLP2023共享任务的机器翻译评估子任务开发的方法。基于所提供的LLM,我们提出了一种基于生成的方法和基于概率的方法来进行评估,探索了在选择上下文学习演示时的不同策略,并尝试了不同的集成方法来进一步提高评估准确性。在开发集和测试集上的实验结果证明了该方法的有效性</摘要><identifier type=“citekey”>zhang-etal-2023-hit</identifier>10.18653/v1/2023.eval4nlp-1.11<位置><网址>https://aclantology.org/2023.eval4nlp-1.11</url></位置><部分>2023-11年<扩展单元=“page”><开始>139<end>148</范围></部分></mods></modsCollection>
%0会议记录%T HIT-MI&T实验室提交给Eval4NLP 2023共享任务%阿章、芮%一首歌,福海%阿黄,惠%阿元、景浩%阿扬、沐云%阿昭、铁军%Y Deutsch,丹尼尔%Y Dror,Rotem公司%斯特芬·Y·埃格尔%Y Gao,Yang(杨高)%克里斯托夫·Y·莱特%尤里·奥皮茨%安德烈亚斯·吕克雷%第四届NLP系统评估与比较研讨会论文集%D 2023年%11月8日%计算语言学协会%C印度尼西亚巴厘岛%F zhang-etal-2023-命中%最近,大型语言模型(LLM)推动了自然语言处理的研究,并在许多领域显示出令人印象深刻的能力,包括机器翻译评估。本文介绍了我们为Eval4NLP2023共享任务的机器翻译评估子任务开发的方法。基于所提供的LLM,我们提出了一种基于生成的方法和基于概率的方法来进行评估,探索了在选择上下文学习演示时的不同策略,并尝试了不同的集成方法来进一步提高评估准确性。在开发集和测试集上的实验结果证明了我们提出的方法的有效性。%R 10.18653/v1/2023.评估nlp-1.11%U型https://aclantology.org/2023.eval4nlp-1.11%U型https://doi.org/10.18653/v1/2023.eval4nlp-1.11%电话139-148
降价(非正式)
【HIT-MI&T实验室提交给Eval4NLP 2023共享任务】(https://aclantology.org/2023.eval4nlp-1.11)(Zhang等人,评估4NLP-WS 2023)
国际计算语言学协会