@正在进行{昭鄂塔-2023调查,title=“调查现实世界信息搜索场景中大型语言模型的表到文本生成能力”,author=“赵一伦张浩伟和Si、Shengyun和Nan、Linyong和唐、相如和阿曼·科汉”,editor=“王、明轩和伊梅德·齐图尼“,booktitle=“2023年自然语言处理实证方法会议记录:行业轨迹”,月=12月,年=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.emnlp-industry.17”,doi=“10.18653/v1/2023.emnlp-industry.17”,pages=“160--175”,abstract=“表格数据在各个行业都很普遍,用户需要花费大量的时间和精力来理解和处理这些数据,以实现其信息搜索目的。大型语言模型(LLM)的进步已经显示出提高用户效率的巨大潜力。然而,在实际应用程序中采用LLM进行表信息查找的研究仍然不足。在本文中,我们使用四个数据集在两个真实世界的信息搜索场景中研究了不同LLM的表到文本功能。其中包括用于数据洞察生成的LogicNLG和我们新构建的LoTNLG数据集,以及用于基于查询生成的FeTaQA和我们新构建的F2WTQ数据集。我们围绕三个研究问题展开调查,分别评估LLM在表到文本生成、自动评估和反馈生成方面的性能。实验结果表明,当前高性能的LLM,特别是GPT-4,可以有效地充当表到文本生成器、评估器和反馈生成器,方便用户在真实场景中进行信息搜索。然而,其他开源LLM(例如,Vicuna和LLaMA-2)与GPT-4模型之间仍存在显著的性能差距。我们的数据和代码可在https://github.com/yale-nlp/LLM-T2T上公开获取。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“肇事-2023调查”><标题信息><title>研究现实世界信息搜索场景中大型语言模型的表到文本生成能力</titleInfo><name type=“个人”>伊伦<namePart type=“given”>赵<namePart type=“family”><角色>作者</角色></name><name type=“个人”>豪威<namePart type=“family”>张<角色>作者</角色></name><name type=“个人”>胜运<namePart type=“given”>Si<角色>作者</角色></name><name type=“个人”>林勇<namePart type=“family”>楠</namePart><角色>作者</角色></name><name type=“个人”>香茹唐<角色>作者</角色></name><name type=“个人”>阿曼科汉<角色>作者</角色></name><originInfo>2023-12年发布</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2023年自然语言处理实证方法会议记录:行业跟踪</titleInfo><name type=“个人”>明轩王<namePart type=“family”><角色>编辑器</角色></name><name type=“个人”><namePart type=“given”>我是Zitouni公司<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><位置>新加坡</place></originInfo>会议出版物</relatedItem>表格数据普遍存在于各个行业,用户需要花费大量的时间和精力来理解和处理这些数据,以实现其信息搜索目的。大型语言模型(LLM)的进步显示出巨大的潜力,可以提高用户效率。然而,在实际应用程序中采用LLM进行表信息查找的研究仍然不足。在本文中,我们使用四个数据集在两个真实世界的信息搜索场景中研究了不同LLM的表到文本功能。其中包括用于数据洞察生成的LogicNLG和我们新构建的LoTNLG数据集,以及用于基于查询生成的FeTaQA和我们新构造的F2WTQ数据集。我们围绕三个研究问题展开调查,分别评估LLM在表到文本生成、自动评估和反馈生成方面的性能。实验结果表明,当前高性能的LLM,特别是GPT-4,可以有效地充当表到文本生成器、评估器和反馈生成器,促进用户在真实场景中的信息搜索目的。然而,其他开源LLM(例如,Vicuna和LLaMA-2)与GPT-4模型之间仍存在显著的性能差距。我们的数据和代码可在以下网址公开获取:https://github.com/yale-nlp/LLM-T2T。</摘要>赵伊塔-2023调查10.18653/v1/2023.emnlp-industry.17<位置><网址>https://aclantology.org/2023.emnlp-industry.17</url></位置><部分><日期>2023-12年</日期><扩展单元=“page”><开始>160<end>175</范围></部分></mods></modsCollection>
%0会议记录%研究现实世界信息搜索场景中大型语言模型的表到文本生成能力%赵一伦%张浩伟%阿思、盛云%林勇阿楠%阿唐,相如%阿曼·A·科汉%Y Wang、Mingxuan%伊梅德·齐图尼%2023年自然语言处理实证方法会议论文集:行业跟踪%D 2023年%12月8日%计算语言学协会%C新加坡%F肇尔-2023调查%X表格数据普遍存在于各个行业,用户需要花费大量的时间和精力来理解和处理这些数据,以便进行信息搜索。大型语言模型(LLM)的进步显示出巨大的潜力,可以提高用户效率。然而,在实际应用程序中采用LLM进行表信息查找的研究仍然不足。在本文中,我们使用四个数据集在两个真实世界的信息搜索场景中研究了不同LLM的表到文本功能。其中包括用于数据洞察生成的LogicNLG和我们新构建的LoTNLG数据集,以及用于基于查询生成的FeTaQA和我们新构造的F2WTQ数据集。我们围绕三个研究问题展开调查,分别评估LLM在表到文本生成、自动评估和反馈生成方面的性能。实验结果表明,当前高性能的LLM,特别是GPT-4,可以有效地充当表到文本生成器、评估器和反馈生成器,促进用户在真实场景中的信息搜索目的。然而,其他开源LLM(例如,Vicuna和LLaMA-2)与GPT-4模型之间仍存在显著的性能差距。我们的数据和代码可在以下网址公开获取:https://github.com/yale-nlp/LLM-T2T。%R 10.18653/v1/2023.emnlp-工业17%U型https://aclantology.org/2023.emnlp-industry.17%U型https://doi.org/10.18653/v1/2023.emnlp-industry.17%电话:160-175
降价(非正式)
[研究现实世界信息搜索场景中大型语言模型的表到文本生成能力](https://aclantology.org/2023.emnlp-industry.17)(Zhao等人,EMNLP 2023)
国际计算语言学协会