论文

参见AI2 获奖论文
了解有关AI2的更多信息 持久影响力奖
查看第1-10页,共1025页
  • ADaPT:基于语言模型的按需分解与规划

    阿奇基·普拉萨德、亚历山大·科勒、马雷克·哈特曼、彼得·克拉克、阿什什·萨巴瓦尔、莫希特·班萨尔、图沙尔·科特全国有色人种协进会调查结果2024 大型语言模型(LLM)越来越多地用于需要规划和适应环境的交互式决策任务。最近的工作主要以两种方式使用LLM作为代理:迭代确定下一个动作(迭代…
  • 评估用于代码生成的库的上下文学习

    Arkil Patel、Siva Reddy、Dzmitry Bahdanau、Pradeep DasigiNAACL公司2024 当代大型语言模型(LLM)具有高度的代码生成和理解能力。一个特别有前途的领域是他们能够从不熟悉的库中解释代码模块,以解决用户构建的任务。最近的工作…
  • 不可能的蒸馏:从低质量模型到高质量数据集&总结和解释模型

    Jaehun Jung、Peter West、Liwei Jiang、Faeze Brahman、Ximing Lu、Jillian R.Fisher、Taylor Sorensen、Yejin ChoiNAACL公司2024 我们提出了不可能提取,这是一个新的改写和句子总结框架,它从一个自身无法执行这些任务的低质量教师那里提取出高质量的数据集和模型。与之前依赖于极端的作品不同…
  • JAMDEC:在小型语言模型上使用约束解码进行无监督作者混淆

    Jillian R.Fisher、Lu Ximing、Jaehun Jung、Jiang Liwei、Zaid Harchaoui、Yejin ChoiNAACL公司2024 在线内容的持久性与增强的作者身份识别技术相结合,需要更强的计算方法来在需要时保护在线作者的身份和隐私,例如,对科学论文的盲评…
  • 利用代码改进语义分析的In-context学习

    Ben Bogin、Shivanshu Gupta、Peter Clark、Ashish SabharwalNAACL公司2024 在语义分析中,上下文内学习(ICL)以其较少的快照和改进的泛化能力而备受关注。然而,从几个演示中学习解析为罕见的领域特定语言(DSL)是一项挑战,限制了…
  • MacGyver:大型语言模型能创造性地解决问题吗?

    田玉飞、阿比拉莎·拉维坎德、秦莲慧、罗南·勒布拉斯、拉贾·马尔杰赫、彭南云、崔叶进、托马斯·格里菲斯、费兹·婆罗门NAACL公司2024 我们探索了现代LLM在一个新的受限环境中的创造性问题解决能力。为此,我们创建了MACGYVER,这是一个自动生成的数据集,由1600多个实际问题组成,旨在触发创新…
  • 神经比较:比较知识的神经符号蒸馏

    菲利普·霍华德(Phillip Howard)、王俊林(Junlin Wang)、瓦苏迪夫·拉尔(Vasudev Lal)、加迪·辛格(Gadi Singer)、蔡叶进(Yejin Choi)、斯瓦巴·斯瓦亚姆迪普塔NAACL公司2024 比较知识(例如,钢比泡沫塑料更坚固、更重)是我们世界知识的重要组成部分,但在以前的文献中研究不足。在本文中,我们获得了语言模型在知识能力方面的显著改进…
  • 生物医学NER中LLM的即时定义增强

    莫妮卡·蒙南吉、谢尔盖·费尔德曼、拜伦·华莱士、西尔维奥·埃米尔、汤姆·霍普、亚坎沙·奈克NAACL 2024年2024 尽管LLM具备一般能力,但在生物医学净入学率任务方面仍存在困难,这是因为存在专业术语和缺乏培训数据。在这项工作中,我们着手在有限的数据中提高生物医学NER的LLM性能…
  • 用于增强跨学科交流的个性化Jargon识别

    Yue Guo、Joseph Chee Chang、Maria Antoniak、Erin Bransom、Trevor Cohen、Lucy Lu Wang、Tal AugustNAACL公司2024 科学术语会妨碍研究人员阅读其他领域的材料。目前的术语识别方法主要使用公司级的熟悉度指标(例如,简单维基百科代表普通语言)。然而,研究人员的熟悉程度…
  • 快速预测结构:推理的回归

    Maitrey Mehta、Valentina Pyatkin、Vivek SrikumarNAACL公司2024 基于提示的方法已在NLP中广泛使用,以构建零快照和少快照标签预测器。许多NLP任务都是自然结构化的:也就是说,它们的输出由相互约束的多个标签组成。为此类任务注释数据可以…