• 变压器

  • 在14篇文章中引用[sw30739]
  • 32岁以上的世代(NLG)+预训练 模型百分之一百+语言以及TensorFlow之间的深度互操作性。。。
  • XLNet公司

  • 引用8篇文章[sw31118]
  • XLNet:广义自回归训练前对于语言理解。有能力建模双向上下文,去噪。。。取得比训练前基于自回归的方法语言 建模. 然而,依靠腐败。。。蒙面姿势和遭受预训练-微调误差。鉴于这些优点。。。最先进的自回归模型,进入训练前. 从经验上讲,XLBERT在网络任务上比20个。。。
  • 卡门贝尔

  • 1条引用[sw37744]
  • 卡门伯特:美味的法国人语言 模型.预训练 语言 模型现在在自然界中无处不在语言...
  • 艾伯特

  • 引用3篇文章[sw36207]
  • 语言陈述。增加的模型调整时间训练前自然的语言表示通常会提高性能。。。下游任务。然而,在某一点上更进一步模型由于GPU/TPU内存,增加变得更困难。。。表明我们提出的方法会导致模型这个比例比。。。自我监督损失建模句子间的连贯性,并显示出连贯性有助于。。。
  • PyTorrent公司

  • 1条引用[sw40107]
  • 语义和自然的尺度集合语言资源对于利用活动软件至关重要。。。重用和代码可理解性。现有机器学习模型从开源存储库中获取数据(比如……构建现成的机器学习)模型直接不用花费几个月的努力。。。基础设施。数据集、模式和预训练 语言 模型网址:https://github.com/fla-sil/PyTorrent。。。
  • 诗节

  • 1条引用[sw32348]
  • 很好,在所有方面都取得了竞争性的表现语言经过测试。另外,节还包括一个原生Python。。。提取。源代码、文档和预训练 模型66人语言可在https://stanfordnlp.github.io。。。
  • 超级胶水

  • 引用2篇文章[sw30754]
  • 目的语言了解系统。去年,新的模型和方法训练前... 在一系列语言理解任务。胶水基准,介绍。。。
  • 维基百科2vec

  • 1条引用[sw26934]
  • 下游自然特征语言处理(NLP)模型. 该工具可以通过PyPI安装。。。源代码、文档和预训练12个主要的嵌入件语言可以在这里得到。。。
  • 中央控制网

  • 1条引用[sw39471]
  • 语言处理。这些东西的质量模型训练前... 从普通的爬行到各种各样语言. 我们的管道遵循介绍的数据处理。。。
  • 棒 极 了

  • 1条引用[sw39134]
  • 自然的语言处理(NLP)和计算机视觉(CV)。范式训练前共享的模型...
  • 变压器XL

  • 引用2篇文章[sw36208]
  • 设置中的长度上下文语言 建模. 我们提出一种新的神经结构转换器。。。带有数千个代币的物品。我们的代码,预训练 模型,超参数在这两个。。。
  • 艾斯伯特

  • 1条引用[sw33748]
  • 基于LSBert的词汇简化框架预训练代表模型伯特,这很有能力。。。候选,包括Bert预测顺序,基于Bert语言 模型,以及解释数据库PPDB。。。
  • 达奇

  • 引用283篇文章[sw11086]
  • darch:深层架构和受限Bolzmann的包。。。
  • 超光速

  • 引用了30篇文章[sw19219]
  • hyperopt:分布式异步超参数优化。Hyperopt是。。。
  • 胶水

  • 参考6篇文章[sw30755]
  • 将军语言理解评估(胶水)基准是。。。
  • 伯特

  • 引用67篇文章[sw30756]
  • 伯特:深双向变压器的预训。。。