• 强盗

  • 引用2篇文章[sw37743]
  • 以及多语种版本。尽管多语种 伯特在许多任务上表现出色,最近的研究。。。语言显著优于多语种版本。训练荷兰人伯特因此。。。
  • 伯杰

  • 1条引用【sw37745】
  • 模特叫伯杰。多语种 伯特模型,包括荷兰语,但仅。。。BERTje的表现一直优于同等规模的公司多语种 伯特下游NLP任务模型(部分。。。
  • 特里伯特

  • 1条引用[sw39093]
  • 语境化的单词嵌入。在这些环境化的建筑中,伯特因其容量而引人注目。。。下游任务不是通过its获得的多语种当它应用于其他。。。工作,我们建议TWiLBERT伯特西班牙语建筑。。。最先进的系统和多语种 伯特此外,我们还进行了彻底的。。。
  • X胶水

  • 1条引用[sw40136]
  • 基本版本(12层)多语种 伯特,用于比较的XLM和XLM-R。。。
  • 拉雷卡

  • 1条引用[sw32538]
  • 无关的同一语言对。建立在多语种 伯特(mBERT),我们研究实现。。。
  • 林斯

  • 1条引用[sw39136]
  • 流行型号,包括LSTM、ELMo和多语种 伯特所以NLP社区可以比较。。。
  • 文本弗林特

  • 1条引用【sw37742】
  • 能力。在这项工作中,我们建议多语种NLP任务的健壮性评估平台(TextFlint…下降超过50%伯特在诸如方面的任务上的预测精度。。。
  • 空间

  • 在14篇文章中引用[sw20540]
  • 空间:产业实力NLP。斯帕西是个图书馆。。。
  • github

  • 引用于2108篇文章[sw23170]
  • GitHub(原名Logical Awesome LLC)[3。。。
  • 变压器

  • 引用15篇文章[sw30739]
  • 《变形金刚:变形金刚》(原名Pythorch。。。
  • 小队

  • 引用9篇文章[sw30753]
  • 斯坦福问答数据集是一个阅读。。。
  • 伯特

  • 引用72篇文章[sw30756]
  • 伯特:深双向变压器的预培训。。。
  • XLNet公司

  • 参考11篇文章[sw31118]
  • XLNet:语言理解的广义自回归预训练。带着。。。
  • 罗伯塔

  • 引用13篇文章[sw32571]
  • 罗伯塔:一个稳健的优化伯特训练前方法。罗伯塔。。。