@进料{pensa-etal-2024多层,title=“物理常识理解的多层方法:{I}talian数据集的创建和评估”,author=“彭萨、朱利亚和阿尔图纳,贝戈{\~n}a和Gonzalez Dios,伊齐亚尔“,editor=“Calzolari、Nicoletta和菅直人、敏妍和Hoste、Veronique和伦奇、亚历山德罗和Sakti、Sakriani和薛念文“,booktitle=“2024年计算语言学、语言资源和评估联合国际会议(LREC-COLING 2024)会议记录”,月=5月,年=“2024”,address=“意大利都灵”,publisher=“ELRA和ICCL”,url=“https://aclantology.org/2024.lrec-main.74”,pages=“819--831”,abstract=“在本文中,我们探索了大型语言模型(LLM)的物理常识推理并提出一种具体的方法来评估对物理世界的低级理解。具体来说,目标是创建一个测试集,以分析意大利语大型语言模型中的物理常识推理,并重点对结果进行可信的分析。为此,我们提出了一个分层的意大利数据集,称为分级意大利注释数据集(GITA),由专业语言学家编写并彻底注释,它使我们能够专注于三个不同层次的常识理解。此外,我们创建了一个半自动化系统来完成数据集的精确注释。我们还通过使用多语言模型(XLM-RoBERTa)执行三个任务来验证数据集,并对结果进行定性分析。我们发现,尽管该模型可能在高级分类任务中执行,但其推理不一致且无法验证,因为它没有捕获中间证据。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“pensa-etal-2024-多层”><标题信息>物理常识理解的多层方法:意大利数据集的创建和评估</titleInfo><name type=“personal”>朱利亚彭萨<角色>作者</角色></name><name type=“personal”>Begoña开始阿尔图纳<角色>作者</角色></name><name type=“personal”>伊齐亚尔冈萨雷斯-迪奥斯<角色>作者</角色></name><originInfo>2024-05发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2024年计算语言学、语言资源和评估联合国际会议(LREC-COLING 2024)会议记录</titleInfo><name type=“personal”>尼科莱塔卡尔佐拉里<角色>编辑器</角色></name><name type=“personal”>民日元菅直人<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Veronique</namePart>主机<角色>编辑器</角色></name><name type=“personal”>亚历山德罗伦奇<角色>编辑器</角色></name><name type=“personal”>萨基里亚尼语萨克蒂<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>念文</namePart>薛(音译)<角色>编辑器</角色></name><originInfo><publisher>ELRA和ICCL<位置>意大利都灵</place></originInfo>会议出版物</relatedItem>在本文中,我们探索了大型语言模型(LLM)的物理常识推理,并提出了一种评估对物理世界低级理解的具体方法。具体来说,目标是创建一个测试集,以分析意大利语大型语言模型中的物理常识推理,并重点对结果进行可信的分析。为此,我们提出了一个分层的意大利数据集,称为分级意大利注释数据集(GITA),由专业语言学家编写并彻底注释,它使我们能够专注于三个不同层次的常识理解。此外,我们创建了一个半自动化系统来完成数据集的精确注释。我们还通过使用多语言模型(XLM-RoBERTa)执行三个任务来验证数据集,并对结果进行定性分析。我们发现,尽管该模型可以执行高级分类任务,但其分析是不一致的,无法验证的,因为它不能捕获中间证据</摘要><identifier type=“citekey”>pensa-etal-2024多层</identifier><位置><网址>https://aclantology.org/2024.lrec-main.74</url></位置><部分><日期>2024-05</日期><扩展单元=“page”><开始>819</开始><end>831</范围></部分></模块></modsCollection>
%0会议记录%物理常识理解的多层方法:意大利数据集的创建和评估%朱利亚·A Pensa%贝戈尼亚阿尔图纳%A Gonzalez-Dios,伊齐亚尔%Y Calzolari,尼科莱塔%Y Kan、Min-Yen%Y Hoste,维罗妮克%亚历山德罗·伦奇%Y Sakti、Sakriani%Y Xue,念文%2024年计算语言学、语言资源和评估联合国际会议记录(LREC-COLING 2024)%D 2024年%5月8日%I ELRA和ICCL%C都灵,意大利%F pensa-etal-2024多层%X在本文中,我们探索了大型语言模型(LLM)的物理常识推理,并提出了一种评估对物理世界低级理解的具体方法。具体来说,目标是创建一个测试集,以分析意大利语大型语言模型中的物理常识推理,并重点对结果进行可信的分析。为此,我们提出了一个分层的意大利数据集,称为分级意大利注释数据集(GITA),由专业语言学家编写并彻底注释,这使我们能够专注于三个不同层次的常识理解。此外,我们创建了一个半自动化系统来完成数据集的精确注释。我们还通过使用多语言模型(XLM-RoBERTa)执行三个任务来验证数据集,并对结果进行定性分析。我们发现,尽管该模型可能在高级分类任务中执行,但其推理不一致且无法验证,因为它没有捕获中间证据。%U型https://aclantology.org/2024.lrec-main.74%电话:819-831
降价(非正式)
[物理常识理解的多层方法:意大利数据集的创建和评估](https://aclantology.org/2024.lrec-main.74)(Pensa等人,LREC-COLING 2024)
国际计算语言学协会
- 朱利亚·彭萨(Giulia Pensa)、贝戈尼亚·阿尔图纳(Begoña Altuna)和伊齐亚·冈萨雷斯(Itziar Gonzalez-Dios)。2024物理常识理解的多层方法:意大利数据集的创建和评估.英寸2024年计算语言学、语言资源和评估联合国际会议记录(LREC-COLING 2024),第819-831页,意大利都灵。ELRA和ICCL。