AI2公司 以色列
关于
我们的重点
AI2以色列还与当地顶尖大学特拉维夫大学和巴伊兰大学建立了研究关系。
当前空缺
研究领域
DIY信息提取
问题理解
缺少的元素
最近的论文
使检索增强语言模型对无关上下文鲁棒 Ori Yoran、Tomer Wolfson、Ori Ram、Jonathan Berant arXiv.org网站 • 2023 检索增强语言模型(RALM)有望产生真实、高效和最新的语言理解系统。 RALM的一个重要需求是,检索到的信息在相关时有助于模型性能… 布局填充语言模型对布局分布变化鲁棒吗? 科学文献案例研究 Catherine Chen、Zejiang Shen、Dan Klein、Gabi Stanovsky、Doug Downey、Kyle Lo ACL的发现 • 2023 最近的工作表明,将布局特征注入语言模型(LM)可以改进对科学论文等视觉丰富文档的处理。 布局集成LM通常在具有熟悉布局特征的文档上进行评估(例如,来自… 从集中式到Ad-Hoc的假设生成知识库构建。 Shaked Launer-Wachs、Hillel Taub-Tabib、Jennie Tokarev Madem、Orr Bar-Natan、Yoav Goldberg、Y.Shamay 生物医学信息学杂志 • 2023 目标 演示并开发一种方法,使单个研究人员或小型团队能够创建自己的专门的轻量级知识库,这些知识库针对专业的科学兴趣而定制,在科学文献上使用文本管理,以及… 通过多重思维链的元推理回答问题 Ori Yoran、Tomer Wolfson、Ben Bogin、Uri Katz、Daniel Deutch、Jonathan Berant EMNLP公司 • 2023 用于多跳问答(QA)的现代系统通常在得出最终答案之前,将问题分解为一系列推理步骤,称为思维链(CoT)。 通常,通过投票机制对多条链进行采样和聚合… 通过更大的模型和更长的训练提高词汇概括能力 Elron Bandel、Yoav Goldberg、Yanai Elazar EMNLP的发现 • 2022 虽然微调语言模型在许多任务中表现良好,但也表明它们依赖于词汇重叠等超官方表面特征。 过度使用这种启发法可能会导致在具有挑战性的输入上失败。 我们分析了词汇的使用…