@进行中{gonzalez-etal-2023增强,title=“为教育中的问答生成增强人类总结”,author=“冈萨雷斯、汉纳和杜根、利亚姆和Miltsakaki、Eleni和崔志奇和任、嘉轩和Li、Bryan和Upadhyay、Shriyash和金斯伯格、伊坦和Callison-Burch,Chris“,editor={科奇马尔、叶卡捷琳娜和布尔斯坦、吉尔和霍巴赫、安德里亚和Laarmann-Quante、Ronja和Madnani、Nitin和塔克,安娜{\“\i}s和亚内瓦、维多利亚和袁、郑和托尔斯滕·泽施,booktitle=“第18届创新使用NLP构建教育应用研讨会(BEA 2023)会议记录”,月=七月,年=“2023”,address=“加拿大多伦多”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.bea-1.9”,doi=“10.18653/v1/2023.bea-1.9”,pages=“108--118”,abstract=“我们解决了为教材生成高质量的问答对的问题。以前对此问题的研究表明,使用摘要作为输入可以提高问题生成(QG)的质量与原始教科书文本相比,人工编写的摘要可以产生比自动摘要更高质量的QG。在本文中,a)我们表明大型语言模型(LLM)的进展尚不足以为QG生成高质量的摘要,b)我们引入了一种新的方法,将重点学生笔记增强为成熟的摘要,并发现我们的方法产生了更高质量的QG。我们对生成的问答对进行了大规模的人工注释研究,以评估我们的方法。为了帮助未来的研究,我们发布了一个新的数据集,其中包含9.2K人对生成问题的注释。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“gonzalez-etal-2023-增强型”><标题信息><title>为教育中的问答生成增强人性总结</titleInfo><name type=“personal”>汉娜冈萨雷斯<角色>作者</角色></name><name type=“personal”>利亚姆杜根(Dugan)<角色>作者</角色></name><name type=“personal”>Eleni(Eleni)米尔萨卡基<角色>作者</角色></name><name type=“personal”><namePart type=“given”>智启</namePart>崔<namePart type=“family”><角色>作者</角色></name><name type=“personal”>佳轩任正非<角色>作者</角色></name><name type=“personal”>布莱恩李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>Shriyash系列Upadhyay公司<角色>作者</角色></name><name type=“personal”>Etan公司金斯伯格<角色>作者</角色></name><name type=“personal”>克里斯Callison-Burch公司<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第18届创新使用NLP构建教育应用研讨会(BEA 2023)会议记录</titleInfo><name type=“personal”>叶卡捷琳娜科赫马尔<角色>编辑器</角色></name><name type=“personal”>吉尔Burstein<角色>编辑器</角色></name><name type=“personal”>安德里亚霍巴赫<角色>编辑器</角色></name><name type=“personal”>RonjaLaarmann-Quante<角色>编辑器</角色></name><name type=“personal”>Nitin(尼丁)马德纳尼<角色>编辑器</角色></name><name type=“personal”>安娜<namePart type=“family”>定位</namePart><角色>编辑器</角色></name><name type=“personal”>维多利亚州亚涅娃<角色>编辑器</角色></name><name type=“personal”>郑元<角色>编辑器</角色></name><name type=“personal”>托尔斯滕Zesch公司<角色>编辑器</角色></name><originInfo>计算语言学协会<地点>加拿大多伦多</place></originInfo>会议出版物</relatedItem>我们解决了为教材生成高质量问答对的问题。以前关于这个问题的研究表明,使用摘要作为输入比原始教科书文本提高了问题生成(QG)的质量,并且人工编写的摘要比自动摘要产生的QG质量更高。在本文中,a)我们表明大型语言模型(LLM)的进展尚不足以为QG生成高质量的摘要,b)我们引入了一种新的方法,将重点学生笔记增强为成熟的摘要,并发现我们的方法产生了更高质量的QG。我们对生成的问答对进行了大规模的人体注释研究,以评估我们的方法。为了帮助未来的研究,我们发布了一个新的数据集,其中包含9.2K人对生成问题的注释</摘要><identifier type=“citekey”>gonzalez-etal-2023增强</identifier>10.18653/v1/2023.bea-1.9<位置><网址>https://aclantology.org/2023.bea-1.9</url></位置><部分>2023-07年<扩展单元=“page”><开始>108</开始><end>118</范围></部分></mods></modsCollection>
%0会议记录%T增强人类总结能力,为教育中的问答生成服务%A Gonzalez,Hannah(汉娜·冈萨雷斯)%利亚姆·A·杜根%埃琳·米尔萨卡基%阿翠、志奇%甲轩阿仁%布莱恩·A·李%A Upadhyay,Shriyash先生%金斯伯格,埃坦%克里斯·卡利森·布尔赫%叶卡捷琳娜·Y·科奇马尔%吉尔·Y·伯斯坦%安德烈亚·霍尔巴赫%Y Laarmann-Quante,隆加%Y Madnani,尼廷%安娜·塔克%Y Yaneva,维多利亚州%Y Yuan,Zheng先生%托尔斯滕·泽施%美国第18届创新使用NLP构建教育应用研讨会会议记录(BEA 2023)%D 2023年%7月8日%I计算语言学协会%C加拿大多伦多%F gonzalez-etal-2023增强%我们解决了为教材生成高质量问答对的问题。以前关于这个问题的研究表明,使用摘要作为输入比原始教科书文本提高了问题生成(QG)的质量,并且人工编写的摘要比自动摘要产生的QG质量更高。在本文中,a)我们表明大型语言模型(LLM)的进展尚不足以为QG生成高质量的摘要,b)我们引入了一种新的方法,将重点学生笔记增强为成熟的摘要,并发现我们的方法产生了更高质量的QG。我们对生成的问答对进行了大规模的人体注释研究,以评估我们的方法。为了帮助未来的研究,我们发布了一个新的数据集,其中包含9.2K人对生成问题的注释。%R10.18653/v1/2023。bea-1.9%U型https://aclantology.org/2023.bea-1.9%U型https://doi.org/10.18653/v1/2023.bea-1.9%第108-118页
降价(非正式)
[为教育中的问答生成增强人类总结](https://aclantology.org/2023.bea-1.9)(Gonzalez等人,BEA 2023)
国际计算语言学协会
- 汉娜·冈萨雷斯(Hannah Gonzalez)、利亚姆·杜根(Liam Dugan)、埃琳·米尔萨卡基(Eleni Miltsakakaki)、崔志琦(Zhiqi Cui)、任家璇(Jishoun Ren)、李布莱恩(Bryan Li)、Shriyash Upadhyay、伊坦·金斯伯格(Etan。2023为教育中的问答生成加强人类总结.英寸第18届创新使用NLP构建教育应用研讨会会议记录(BEA 2023),第108–118页,加拿大多伦多。计算语言学协会。