数据集集合

所有项目
所有年份
查看54个数据集中的1-10个
  • 战略QA

    2780个隐式多跳推理问题以色列,问题理解,亚里士多德•2021StrategyQA是一个问答基准,关注于开放领域问题,其中所需的推理步骤隐含在问题中,并且应该使用策略进行推断。StrategyQA包括2780个示例,每个示例由一个策略问题、其分解和证据段落组成。
  • 校对员

    更新了规则制定者数据集,包含了50万个规则库的问题、答案和证明。亚里士多德2020这些数据集伴随着论文“校对者:在自然语言上生成暗示、证明和溯因性陈述”。它们包含了更新的规则制定者风格的数据集,包含了超过自然语言规则库的500k个问题、答案和证明,用于表明变形金刚可以模拟语言表达的规则的推理,包括证明生成。它包括使用封闭和开放世界语义的变体。证明包括中间结论。额外的注释提供数据来训练迭代校对模型,以及使不确定陈述变得确定的溯因推理。
  • ARC直接回答问题

    一个2985个小学水平的,直接回答的科学问题的数据集从弧多选题集。20202018年AI2推理挑战赛发布的ARC多项选择题集中的2985个小学水平的直接回答科学问题的数据集。
  • 规则制定者:变形金刚是语言的软推理者

    用来教变形金刚推理的数据集•《亚里士多德》2020变形金刚能被训练成对语言表达的规则进行推理(或模仿推理)吗?在相关的论文和演示中,我们提供了证据证明他们可以。我们的模型,我们称之为规则制定者,是根据综合规则库的数据集和这里提供的派生结论进行训练的。由此产生的模型首次证明了这种语言软推理确实是可以学习的。
  • 从任务描述中零距离学习

    ZEST是一个基准,用于将零快照泛化到看不见的NLP任务,在1251个不同的任务中有25K个标记实例。AI2欧文,马赛克,艾伦尼普•2020ZEST测试NLP系统是否能够以零触发的方式执行看不见的任务,给出任务的自然语言描述。它是我们提出的“从任务描述中学习”框架的一个实例。任务包括分类、类型化实体提取和关系提取,每个任务都有20个不同的注释(输入、输出)示例。ZEST的结构使我们能够系统地测试模型是否可以用五种不同的方式进行概括。
  • 打开PI

    33K州从810个程序性、真实的段落中改变了4050个句子亚里士多德,马赛克•2020openpi是第一个使用无限制(Open)词汇表跟踪来自任意域的过程文本中的状态变化的数据集。我们的解决方案是一个新的任务公式,其中只提供文本,从中为每个步骤生成一组状态更改(实体、属性、之前、之后),其中实体、属性和值都必须从开放词汇表中进行预测。
  • 真实毒性提示

    一个由10万个句子片段组成的数据集,供研究人员进一步解决模型中神经毒性退化的风险。马赛克•2020一个由10万个句子片段组成的数据集,供研究人员进一步解决模型中神经毒性退化的风险。
  • eQASC:QASC的多跳解释

    QASC数据集的98k注释解释亚里士多德2020此数据集包含针对QASC数据集中问题的98k个2跳解释,并带有注释,说明它们是有效的(~25k)还是无效的(~73k)解释。
  • HASKB零件

    hasPart关系的高质量知识库亚里士多德2020约50k的高质量知识库具有部分关系,从大量的通用语句语料库中提取。
  • 科学文献

    SPECTER论文/模型附带的学术论文表示数据集语义学者•2020表征学习是自然语言处理系统的重要组成部分。最近的像BERT这样的转换语言模型学习了强大的文本表示,但是这些模型针对的是令牌和句子级别的训练目标,并且没有利用文档间相关性的信息,这限制了它们的文档级表示能力。对于科学文献的分类、推荐等应用,嵌入式技术在终端任务上具有很强的性能。本文提出了一种新的文档级嵌入方法SPECTER,该方法基于文档级相关性的强大信号:引用图,对转换语言模型进行预训练。与现有的预训练语言模型不同,SPECTER可以很容易地应用于下游应用程序,而无需进行特定于任务的微调。此外,为了鼓励对文档级模型的进一步研究,我们引入了SciDocs,这是一个新的评估基准,由七个文档级别的任务组成,从引文预测到文档分类和推荐。
所有项目
所有年份