伊兹·贝尔塔基
人员信息
SPARQL查询
优化列表
2020年–今天
2024 [公元30年] 卢卡·索尔达尼 , 罗德尼·金尼 , Akshita学院 , 达斯汀·施文克 , 大卫·阿特金森 , 罗素·奥图尔 , 本·博金 , Khyathi Raghavi Chandu公司 , 詹妮弗·杜马斯 , 亚奈·埃拉扎尔 , 瓦伦丁·霍夫曼 , Ananya Harsh贾 , 萨钦·库马尔 , 李露西 , 新溪柳 , 内森·兰伯特 , 伊恩·马格努森 , 雅各布·莫里森 , 尼古拉斯·穆尼霍夫 , Aakanksha Naik公司 , Crystal Nam公司 , 马修·彼得斯 , 阿比拉莎·拉维坎德 , 凯尔·理查森 , 泽江沈 , 艾玛·斯特鲁贝尔 , Nishant Subramani公司 , 奥文德·塔夫乔德 , 埃文·皮特·沃尔什 , 卢克·泽特莫耶 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 , 伊兹·贝尔塔基 , 德克·格罗内维尔德 , 杰西·道奇 , 凯尔·洛 :
Dolma:一个用于语言模型预训练研究的三万亿标记的开放语料库。 ACL(1) 2024 : 15725-15788 [公元29年] 德克·格罗内维尔德 , 伊兹·贝尔塔基 , 埃文·皮特·沃尔什 , Akshita学院 , 罗德尼·金尼 , 奥文德·塔夫乔德 , Ananya Harsh贾 , 哈米什·伊维森 , 伊恩·马格努森 , 王一忠 , 谢恩·阿罗拉 , 大卫·阿特金森 , 罗素·奥图尔 , Khyathi Raghavi Chandu公司 , 阿曼·科汉 , 詹妮弗·杜马斯 , 亚奈·埃拉扎尔 , 顾玉玲 , 杰克·海塞尔 , Tushar Khot公司 , 威廉·梅里尔 , 雅各布·莫里森 , 尼古拉斯·穆尼霍夫 , Aakanksha Naik公司 , Crystal Nam公司 , 马修·彼得斯 , 瓦伦蒂娜·派特金 , 阿比拉莎·拉维坎德 , 达斯汀·施文克 , 沙特国王 , 威尔·史密斯 , 艾玛·斯特鲁贝尔 , Nishant Subramani公司 , 米切尔·沃茨曼 , Pradeep Dasigi公司 , 内森·兰伯特 , 凯尔·理查森 , 卢克·泽特莫耶 , 杰西·道奇 , 凯尔·洛 , 卢卡·索尔达尼 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 :
OLMo:加速语言模型科学。 ACL(1) 2024 : 15789-15809 [公元28年] 拉比·卡里米·马哈巴迪 , 哈米什·伊维森 , Jaesung Tae , 詹姆斯·亨德森 , 伊兹·贝尔塔基 , 马修·彼得斯 , 阿曼·科汉 :
TESS:文本到文本的自条件单纯形扩散。 EACL(1) 2024 : 2347-2361 [i39] 卢卡·索尔达尼 , 罗德尼·金尼 , Akshita学院 , 达斯汀·施文克 , 大卫·阿特金森 , 罗素·奥图尔 , 本·博金 , Khyathi Raghavi Chandu公司 , 詹妮弗·杜马斯 , 亚奈·埃拉扎尔 , 瓦伦丁·霍夫曼 , Ananya Harsh贾 , 萨钦·库马尔 , 李露西 , 新溪柳 , 内森·兰伯特 , 伊恩·马格努森 , 雅各布·莫里森 , 尼古拉斯·穆尼霍夫 , Aakanksha Naik公司 , Crystal Nam公司 , 马修·彼得斯 , 阿比拉莎·拉维坎德 , 凯尔·理查森 , 泽江沈 , 艾玛·斯特鲁贝尔 , Nishant Subramani公司 , 奥文德·塔夫乔德 , 皮特·沃尔什 , 卢克·泽特莫耶 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 , 伊兹·贝尔塔基 , 德克·格罗内维尔德 , 杰西·道奇 , 凯尔·洛 :
Dolma:一个用于语言模型预训练研究的三万亿标记的开放语料库。 CoRR公司 abs/2402.00159 ( 2024 ) [i38] 德克·格罗内维尔德 , 伊兹·贝尔塔基 , 皮特·沃尔什 , Akshita学院 , 罗德尼·金尼 , 奥文德·塔夫乔德 , Ananya Harsh贾 , 哈米什·伊维森 , 伊恩·马格努森 , 王一忠 , 谢恩·阿罗拉 , 大卫·阿特金森 , 罗素·奥图尔 , Khyathi Raghavi Chandu公司 , 阿曼·科汉 , 詹妮弗·杜马斯 , 亚奈·埃拉扎尔 , 顾玉玲 , 杰克·海塞尔 , Tushar Khot公司 , 威廉·梅里尔 , 雅各布·莫里森 , 尼古拉斯·穆尼霍夫 , Aakanksha Naik公司 , Crystal Nam公司 , 马修·彼得斯 , 瓦伦蒂娜·派特金 , 阿比拉莎·拉维坎德 , 达斯汀·施文克 , 沙特国王 , 威尔·史密斯 , 艾玛·斯特鲁贝尔 , Nishant Subramani公司 , 米切尔·沃茨曼 , Pradeep Dasigi公司 , 内森·兰伯特 , 凯尔·理查森 , 卢克·泽特莫耶 , 杰西·道奇 , 凯尔·洛 , 卢卡·索尔达尼 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 :
OLMo:加速语言模型科学。 CoRR公司 abs/2402.00838 ( 2024 ) [i37] 穆罕默德·哈里发 , 大卫·沃登 , 艾玛·斯特鲁贝尔 , 李洪拉克 , 卢旺(Lu Wang) , 伊兹·贝尔塔基 , 郝鹏 :
源软件培训支持语言模型中的知识归因。 CoRR公司 abs/2404.01019 ( 2024 ) 2023 [注2] 吴兆峰 , 威廉·梅里尔 , 郝鹏 , 伊兹·贝尔塔基 , 诺亚·A·史密斯 :
透明度有助于揭示语言模型学习含义的时间。 事务处理。 关联计算。 语言学 11 : 617-634 ( 2023 ) [公元27年] 新溪柳 , Sewon最小值 , 伊兹·贝尔塔基 , 卢克·泽特莫耶 , Hannaneh Hajishirzi公司 :
Z-ICL:使用伪演示的零镜头上下文学习。 ACL(1) 2023 : 2304-2317 [公元26年] 叶沁源 , 伊兹·贝尔塔基 , 马修·彼得斯 , 向仁 , Hannaneh Hajishirzi公司 :
FiD-ICL:一种高效上下文学习的融合解码器方法。 ACL(1) 2023 : 8158-8185 [公元25年] 王一忠 , 哈米什·伊维森 , Pradeep Dasigi公司 , 杰克·海塞尔 , Tushar Khot公司 , Khyathi Raghavi Chandu公司 , 大卫·沃登 , 凯尔西·麦克米伦 , 诺亚·A·史密斯 , 伊兹·贝尔塔基 , Hannaneh Hajishirzi公司 :
骆驼能走多远? 探索开放资源上的指令调整状态。 NeurIPS公司 2023 [公元36年] 罗德尼·金尼 , 克洛伊·阿纳斯塔西亚德斯 , 罗素·奥图尔 , 伊兹·贝尔塔基 , 乔纳森·布拉格 , 亚历山德拉·布拉钦斯基 , 伊莎贝尔·卡科拉 , 斯特凡·坎德拉 , Yoganand Chandrasekhar公司 , 阿曼·科汉 , 迈尔斯·克劳福德 , 道格·唐尼 , 杰森·邓克伯格 , 奥尼 , 罗布·埃文斯 , 谢尔盖·费尔德曼 , 约瑟夫·戈尼 , 戴林瀚 , 方舟湖 , 里根·赫夫 , 丹尼尔·金 , 塞巴斯蒂安·科尔迈尔 , 贝利库尔 , 迈克尔·兰根 , 丹尼尔·林 , 刘浩坤 , 凯尔·洛 , 杰伦·洛克纳 , 凯尔西·麦克米伦 , 泰勒·穆雷 , 克里斯·纽厄尔 , 斯米塔·拉奥 , 沙亚·罗哈吉 , 保罗·赛尔 , 泽江沈 , 阿曼普雷特·辛格 , 卢卡·索尔达尼 , Shivashankar Subramanian语 , 田中琥珀 , 亚历克斯·D·韦德 , 琳达·瓦格纳 , 露西·路·王 , 克里斯·威廉姆 , 卡罗琳·吴 , 杨江江 , 安吉丽·扎马龙 , 马德琳·范·祖伦 , 丹尼尔·维尔德 :
语义学者开放数据平台。 CoRR公司 abs/2301.10140型 ( 2023 ) [i35] 拉比·卡里米·马哈巴迪 , Jaesung Tae , 哈米什·伊维森 , 詹姆斯·亨德森 , 伊兹·贝尔塔基 , 马修·彼得斯 , 阿曼·科汉 :
TESS:文本到文本的自条件单纯形扩散。 CoRR公司 abs/2305.08379 ( 2023 ) [i34] Ananya Harsh贾 , 德克·格罗内维尔德 , 艾玛·斯特鲁贝尔 , 伊兹·贝尔塔基 :
大型语言模型提取不需要老师。 CoRR公司 abs/2305.14864 ( 2023 ) [i33] 王一忠 , 哈米什·伊维森 , Pradeep Dasigi公司 , 杰克·海塞尔 , Tushar Khot公司 , Khyathi Raghavi Chandu公司 , 大卫·沃登 , 凯尔西·麦克米伦 , 诺亚·A·史密斯 , 伊兹·贝尔塔基 , Hannaneh Hajishirzi公司 :
骆驼能走多远? 探索开放资源上的指令调整状态。 CoRR公司 abs/2306.04751 ( 2023 ) [i32] 郝鹏 , 曹庆庆 , 杰西·道奇 , 马修·彼得斯 , 杰瑞德·费尔南德斯 , 汤姆·谢伯恩 , 凯尔·洛 , 萨姆·斯肯斯伯格 , 艾玛·斯特鲁贝尔 , 达雷尔·普列萨斯 , 伊兹·贝尔塔基 , 埃文·皮特·沃尔什 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 :
效率五项:效率评估的标准化竞技场。 CoRR公司 abs/2307.09701 ( 2023 ) [i31] 哈米什·伊维森 , 王一忠 , 瓦伦蒂娜·派特金 , 内森·兰伯特 , 马修·彼得斯 , Pradeep Dasigi公司 , 乔尔·张 , 大卫·沃登 , 诺亚·A·史密斯 , 伊兹·贝尔塔基 , Hannaneh Hajishirzi公司 :
气候变化中的骆驼:利用Tulu 2加强LM适应。 CoRR公司 abs/2311.10702 ( 2023 ) [i30] 德克·格罗内维尔德 , 阿纳斯·阿瓦达拉 , 伊兹·贝尔塔基 , Akshita学院 , 伊恩·马格努森 , 郝鹏 , 奥文德·塔夫乔德 , 皮特·沃尔什 , 凯尔·理查森 , 杰西·道奇 :
Catwalk:一个针对许多数据集的统一语言模型评估框架。 CoRR公司 腹肌/2312.10253 ( 2023 ) [i29] 伊恩·马格努森 , Akshita学院 , 瓦伦丁·霍夫曼 , 卢卡·索尔达尼 , Ananya Harsh贾 , 奥文德·塔夫乔德 , 达斯汀·施文克 , 埃文·皮特·沃尔什 , 亚奈·埃拉扎尔 , 凯尔·洛 , 德克·格罗内维尔德 , 伊兹·贝尔塔基 , Hannaneh Hajishirzi公司 , 诺亚·A·史密斯 , 凯尔·理查森 , 杰西·道奇 :
Paloma:评估语言模型适合性的基准。 CoRR公司 abs/2312.10523 ( 2023 ) 2022 [j1] 迈克尔·卡瓦雷拉 , 迈克尔·安德森 , 伊兹·贝尔塔基 , 阿里·卡坦 , 莎拉·查辛斯(Sarah E.Chasins) , 伊多·达甘 , 道格·唐尼 , 奥尼 , 谢尔盖·费尔德曼 , 田高 , 汤姆·霍普 , 黄可欣 , 苏菲·约翰逊 , 丹尼尔·金 , 凯尔·洛 , 玉泽楼 , 马修·夏皮罗 , 沈丁浩 , Shivashankar Subramanian语 , 露西·路·王 , 王云宁(Yuning Wang) , 王一彤 , 丹尼尔·维尔德 , 珍妮·沃·帕米 , 安娜·曾 , 邹佳云 :
快速开放知识网络开发的基础设施。 人工智能杂志。 43 ( 1 ) : 59-68 ( 2022 ) [公元24年] 伊兹·贝尔塔基 , 阿曼·科汉 , 罗伯特·洛根四世 , Sewon最小值 , 萨米尔·辛格 :
带有预训练语言模型的零快照和少快照NLP。 ACL(教程) 2022 : 32-37 【c23】 文晓 , 伊兹·贝尔塔基 , 朱塞佩·卡里尼 , 阿曼·科汉 :
PRIMERA:基于金字塔的多文档摘要屏蔽句子预训练。 ACL(1) 2022 : 5245-5263 [公元22年] 特文·勒斯卡奥 , 托马斯·王 , 丹尼尔·赫斯洛 , 斯塔斯·贝克曼 , 塞福尔·巴里先生 , 斯特拉·拜德曼 , 哈迪·埃尔萨哈 , 尼古拉斯·穆尼霍夫 , 贾森·彭 , Ofir出版社 , 科林·拉斐尔 , 维克托·桑 , 盛申(Sheng Shen) , 临塘苏塔威卡 , Jaesung Tae , 郑新勇 , 朱利安·拉奈 , 伊兹·贝尔塔基 :
如果你有一百万个GPU小时,要训练什么语言模型? EMNLP(调查结果) 2022 : 765-782 【c21】 吴兆峰 , 罗伯特·洛根四世 , 皮特·沃尔什 , Akshita学院 , 德克·格罗内维尔德 , 萨米尔·辛格 , 伊兹·贝尔塔基 :
继续进行预培训,以实现更好的零速和少速可及性。 EMNLP公司 2022 : 4517-4531 [公元20年] 大卫·沃登 , 凯尔·洛 , 贝利库尔 , 阿曼·科汉 , 伊兹·贝尔塔基 , 露西·路·王 , Hannaneh Hajishirzi公司 :
科学事实开放:走向开放领域的科学主张验证。 EMNLP(调查结果) 2022 : 4719-4734 [第19条] 盛申(Sheng Shen) , 皮特·沃尔什 , 库尔特·科伊策 , 杰西·道奇 , 马修·彼得斯 , 伊兹·贝尔塔基 :
变压器语言模型的分阶段培训。 ICML公司 2022 : 19893-19908 [第18条] 托马斯·王 , 亚当·罗伯茨 , 丹尼尔·赫斯洛 , 特文·勒斯卡奥 , Hyung Won Chung(亨元忠) , 伊兹·贝尔塔基 , 朱利安·拉奈 , 科林·拉斐尔 :
哪种语言模型体系结构和预训练目标最适合零炮概括? ICML公司 2022 : 22964-22984 [第17条] 大卫·沃登 , 凯尔·洛 , 露西·路·王 , 阿曼·科汉 , 伊兹·贝尔塔基 , Hannaneh Hajishirzi公司 :
MultiVerS:在监管薄弱和文档完整的情况下改进科学索赔验证。 NAACL-HLT(调查结果) 2022 : 61-76 [第16条] 安娜·马拉索维奇 , 伊兹·贝尔塔基 , 道格·唐尼 , 马修·彼得斯 :
自然语言提示下的少量自我合理化。 NAACL-HLT(调查结果) 2022 : 410-424 [第28条] 盛申(Sheng Shen) , 皮特·沃尔什 , 库尔特·科伊策 , 杰西·道奇 , 马修·彼得斯 , 伊兹·贝尔塔基 :
变压器语言模型的分阶段培训。 CoRR公司 abs/2203.06211 ( 2022 ) [i27] 丹尼尔·金 , 泽江沈 , Nishant Subramani公司 , 丹尼尔·维尔德 , 伊兹·贝尔塔基 , 道格·唐尼 :
不要说你不知道的东西:通过约束束搜索提高抽象摘要的一致性。 CoRR公司 abs/2203.08436 ( 2022 ) [i26] 托马斯·王 , 亚当·罗伯茨 , 丹尼尔·赫斯洛 , 特文·勒斯卡奥 , Hyung Won Chung(亨元忠) , 伊兹·贝尔塔基 , 朱利安·拉奈 , 科林·拉斐尔 :
哪种语言模型架构和预训练目标最适合零炮概括? CoRR公司 abs/2204.05832 ( 2022 ) [i25] 吴兆峰 , 威廉·梅里尔 , 郝鹏 , 伊兹·贝尔塔基 , 诺亚·A·史密斯 :
透明度有助于揭示语言模型学习含义的时间。 CoRR公司 abs/2210.07468 ( 2022 ) [i24] 吴兆峰 , 罗伯特·洛根四世 , 皮特·沃尔什 , Akshita学院 , 德克·格罗内维尔德 , 萨米尔·辛格 , 伊兹·贝尔塔基 :
继续进行预培训,以实现更好的零速和少速可及性。 CoRR公司 abs/2210.10258 ( 2022 ) [第23条] 大卫·沃登 , 凯尔·洛 , 贝利库尔 , 阿曼·科汉 , 伊兹·贝尔塔基 , 露西·路·王 , Hannaneh Hajishirzi公司 :
科学事实开放:走向开放领域的科学主张验证。 CoRR公司 abs/2210.13777 ( 2022 ) [i22] 特文·勒斯卡奥 , 托马斯·王 , 丹尼尔·赫斯洛 , 露西尔·索尔尼尔 , 斯塔斯·贝克曼 , 塞福尔·巴里先生 , 斯特拉·拜德曼 , 哈迪·埃尔萨哈 , 尼古拉斯·穆尼霍夫 , 贾森·彭 , Ofir出版社 , 科林·拉斐尔 , 维克托·桑 , 盛申(Sheng Shen) , 临塘苏塔威卡 , Jaesung Tae , 郑新勇 , 朱利安·拉奈 , 伊兹·贝尔塔基 :
如果你有一百万个GPU小时,要训练什么语言模型? CoRR公司 abs/2210.15424 ( 2022 ) 【i21】 特文·勒斯卡奥 , 安吉拉·范 , 克里斯托弗·阿基基 , 埃利·帕夫利克 , 苏珊娜·伊利奇 , 丹尼尔·赫斯洛 , 罗曼·卡斯塔尼 , 亚历山德拉·萨沙·卢奇奥尼 , 弗朗索瓦·伊冯 , 马蒂亚斯·加莱 , 乔纳森·托夫 , 亚历山大·M·拉什 , 斯特拉·拜德曼 , 阿尔伯特·韦伯森 , 帕万·萨桑卡·阿曼纳曼奇 , 托马斯·王 , 贝尼特·萨格特 , 尼古拉斯·穆尼霍夫 , 阿尔伯特·维拉诺娃道德 , Olatunji Ruwase公司 , 雷切尔·鲍登 , 斯塔斯·贝克曼 , 安吉丽娜·麦克米兰(Angelina McMillan-Major) , 伊兹·贝尔塔基 , 胡阮 , 露西尔·索尔尼尔 , 萨姆森·谭 , 佩德罗·奥尔蒂斯·苏亚雷斯 , 维克托·桑 , 雨果·劳伦松 , 亚辛岩 , 朱利安·拉奈 , 玛格丽特·米切尔 , 科林·拉斐尔 , 亚伦·戈卡斯兰 , 阿迪·西米 , 艾托·索罗亚 , 阿尔哈姆·菲克里·阿吉 , 阿米特·阿尔法西 , 安娜·罗杰斯 , 阿里尔·克雷斯贝格·尼扎夫 , 徐灿文 , 牟成浩 , 克里斯·埃梅祖 , 克里斯托弗·克拉姆 , 柯林·梁朝伟(Colin Leong) , 丹尼尔·范·斯特林 , 大卫·伊菲奥卢瓦·阿德拉尼 , 等。 :
BLOOM:176B参数开放访问多语言模型。 CoRR公司 abs/2211.05100 ( 2022 ) [i20] 新溪柳 , Sewon最小值 , 伊兹·贝尔塔基 , 卢克·泽特莫耶 , Hannaneh Hajishirzi公司 :
Z-ICL:使用伪演示的零镜头上下文学习。 CoRR公司 abs/2212.09865 ( 2022 ) 2021 [第15条] 阿里·卡坦 , 苏菲·约翰逊 , 丹尼尔·维尔德 , 伊多·达甘 , 伊兹·贝尔塔基 , 道格·唐尼 , 汤姆·霍普 :
SciCo:科学概念的层次交叉文档参考。 AKBC公司 2021 [第14条] 拉胡尔·纳德卡尼 , 大卫·沃登 , 伊兹·贝尔塔基 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 , 汤姆·霍普 :
生物医学知识库完成的科学语言模型:一项实证研究。 AKBC公司 2021 [第13条] 阿维·卡奇瓦鲁 , 阿曼·科汉 , 伊兹·贝尔塔基 , 马修·彼得斯 , 阿里·卡坦 , 伊多·达甘 :
CDLM:跨文档语言建模。 EMNLP(调查结果) 2021 : 2648-2662 [第12条] 杰·德扬 , 伊兹·贝尔塔基 , 马德琳·范·祖伦 , 贝利库尔 , 露西·路·王 :
MS 2:医学研究的多文档摘要。 EMNLP(1) 2021 : 7494-7513 [第11条] Pradeep Dasigi公司 , 凯尔·洛 , 伊兹·贝尔塔基 , 阿曼·科汉 , 诺亚·A·史密斯 , 马特·加德纳 :
研究论文中的信息寻求问题和答案数据集。 NAACL-HLT公司 2021 : 4599-4610 [第10条] 乔纳森·布拉格 , 阿曼·科汉 , 凯尔·洛 , 伊兹·贝尔塔基 :
FLEX:Few-Shot NLP的统一评估。 NeurIPS公司 2021 : 15787-15800 [电子1] 克里斯蒂娜·图塔诺娃 , 安娜·拉姆希斯基 , 卢克·泽特莫耶 , Dilek Hakkani-Tür , 伊兹·贝尔塔基 , 史蒂文·贝瑟德 , 瑞恩·科特雷尔 , Tanmoy Chakraborty公司 , 周一超 :
计算语言学协会北美分会2021年会议记录:人类语言技术,NAACL-HLT 2021,在线,2021年6月6日至11日。 计算语言学协会 2021 ,国际标准图书编号 978-1-954085-46-6 [目录] [i19] 阿维·卡奇瓦鲁 , 阿曼·科汉 , 伊兹·贝尔塔基 , 马修·彼得斯 , 阿里·卡坦 , 伊多·达甘 :
跨文档语言建模。 CoRR公司 abs/2101.00406 ( 2021 ) [i18] 杰·德扬 , 伊兹·贝尔塔基 , 马德琳·范·祖伦 , 贝利库尔 , 露西·路·王 :
MS2:医学研究的多文档摘要。 CoRR公司 abs/2104.06486 ( 2021 ) [i17] 阿里·卡坦 , 苏菲·约翰逊 , 丹尼尔·维尔德 , 伊多·达甘 , 伊兹·贝尔塔基 , 道格·唐尼 , 汤姆·霍普 :
SciCo:科学概念的层次交叉文档参考。 CoRR公司 abs/2104.08809 ( 2021 ) [i16] Pradeep Dasigi公司 , 凯尔·洛 , 伊兹·贝尔塔基 , 阿曼·科汉 , 诺亚·A·史密斯 , 马特·加德纳 :
研究论文中的信息寻求问题和答案数据集。 CoRR公司 abs/2105.03011 ( 2021 ) 【i15】 拉胡尔·纳德卡尼 , 大卫·沃登 , 伊兹·贝尔塔基 , 诺亚·A·史密斯 , Hannaneh Hajishirzi公司 , 汤姆·霍普 :
生物医学知识库完成的科学语言模型:一项实证研究。 CoRR公司 abs/2106.09700 ( 2021 ) [第14条] 乔纳森·布拉格 , 阿曼·科汉 , 凯尔·洛 , 伊兹·贝尔塔基 :
FLEX:Few-Shot NLP的统一评估。 CoRR公司 abs/2107.07170 ( 2021 ) [i13] 文晓 , 伊兹·贝尔塔基 , 朱塞佩·卡里尼 , 阿曼·科汉 :
引语:基于金字塔的多文档摘要屏蔽句子预训练。 CoRR公司 abs/2110.08499 ( 2021 ) [i12] 安娜·马拉索维奇 , 伊兹·贝尔塔基 , 道格·唐尼 , 马修·彼得斯 :
自然语言提示下的少量自我合理化。 CoRR公司 abs/2111.08284 ( 2021 ) [i11] 大卫·沃登 , 凯尔·洛 , 露西·路·王 , 阿曼·科汉 , 伊兹·贝尔塔基 , Hannaneh Hajishirzi公司 :
LongChecker:通过建模完全抽象的上下文来改进科学声明验证。 CoRR公司 abs/2112.01640 ( 2021 ) 2020 【c9】 阿曼·科汉 , 谢尔盖·费尔德曼 , 伊兹·贝尔塔基 , 道格·唐尼 , 丹尼尔·维尔德 :
SPECTER:使用引用信息转换器的文档级表示学习。 国际计算语言学协会 2020 : 2270-2282 【c8】 萨塔克·贾恩 , 马德琳·范·祖伦 , Hannaneh Hajishirzi公司 , 伊兹·贝尔塔基 :
SciREX:文档级信息提取的挑战数据集。 国际计算语言学协会 2020 : 7506-7516 【c7】 苏金·古鲁兰根 , 安娜·马拉索维奇 , Swabha Swayamdipta公司 , 凯尔·洛 , 伊兹·贝尔塔基 , 道格·唐尼 , 诺亚·A·史密斯 :
不要停止预先训练:根据领域和任务调整语言模型。 国际计算语言学协会 2020 : 8342-8360 [i10] 伊兹·贝尔塔基 , 马修·彼得斯 , 阿曼·科汉 :
Longformer:长文档转换器。 CoRR公司 abs/2004.05150 ( 2020 ) [第九章] 阿曼·科汉 , 谢尔盖·费尔德曼 , 伊兹·贝尔塔基 , 道格·唐尼 , 丹尼尔·维尔德 :
SPECTER:使用引用信息转换器的文档级表示学习。 CoRR公司 abs/2004.07180 ( 2020 ) [i8] 苏金·古鲁兰根 , 安娜·马拉索维奇 , Swabha Swayamdipta公司 , 凯尔·洛 , 伊兹·贝尔塔基 , 道格·唐尼 , 诺亚·A·史密斯 :
不要停止预先训练:根据领域和任务调整语言模型。 CoRR公司 abs/2004.10964 ( 2020 ) [i7] 萨塔克·贾恩 , 马德琳·范·祖伦 , Hannaneh Hajishirzi公司 , 伊兹·贝尔塔基 :
SciREX:文档级信息提取的挑战数据集。 CoRR公司 腹肌/2005.00512 ( 2020 )
2010 – 2019
2019 【c6】 马克·诺伊曼 , 丹尼尔·金 , 伊兹·贝尔塔基 , 瓦利德·阿马尔 :
ScispaCy:生物医学自然语言处理的快速和健壮模型。 生物NLP@ACL 2019 : 319-327 【c5】 伊兹·贝尔塔基 , 凯尔·洛 , 阿曼·科汉 :
SciBERT:科学文本的预先训练语言模型。 EMNLP/IJCNLP(1) 2019 : 3613-3618 【c4】 阿曼·科汉 , 伊兹·贝尔塔基 , 丹尼尔·金 , 巴瓦娜·达维 , 丹尼尔·维尔德 :
序列句子分类的预训练语言模型。 EMNLP/IJCNLP(1) 2019 : 3691-3697 【c3】 伊兹·贝尔塔基 , 凯尔·洛 , 瓦利德·阿马尔 :
神经关系提取的远程和直接监控相结合。 NAACL-HLT(1) 2019 : 1858-1867 [i6] 马克·诺伊曼 , 丹尼尔·金 , 伊兹·贝尔塔基 , 瓦利德·阿马尔 :
ScispaCy:生物医学自然语言处理的快速和健壮模型。 CoRR公司 abs/1902.07669 ( 2019 ) [i5] 伊兹·贝尔塔基 , 阿曼·科汉 , 凯尔·洛 :
SciBERT:科学文本的预设上下文嵌入。 CoRR公司 腹肌/1903.10676 ( 2019 ) [i4] 阿曼·科汉 , 伊兹·贝尔塔基 , 丹尼尔·金 , 巴瓦娜·达维 , 丹尼尔·维尔德 :
序列句子分类的预训练语言模型。 CoRR公司 abs/1909.04054 ( 2019 ) 2018 【c2】 艾哈迈德·阿尔哈泰卜 , 伊兹·贝尔塔基 , 萨姆·亚历克斯 :
可靠MMWAVE系统的机器学习:阻塞预测和主动切换。 全球SIP 2018 : 1055-1059 【c1】 瓦利德·阿马尔 , 德克·格罗内维尔德 , Chandra Bhagavatula公司 , 伊兹·贝尔塔基 , 迈尔斯·克劳福德 , 道格·唐尼 , 杰森·邓克伯格 , 艾哈迈德·埃尔戈哈里 , 谢尔盖·费尔德曼 , 武哈 , 罗德尼·金尼 , 塞巴斯蒂安·科尔迈尔 , 凯尔·洛 , 泰勒·穆雷 , 徐汉Ooi , 马修·彼得斯 , 乔安娜·鲍尔 , 萨姆·斯肯斯伯格 , 露西·路·王 , 克里斯·威廉姆 , 郑源 , 马德琳·范·祖伦 , 奥尼 :
语义学者的文学图形建构。 NAACL-HLT(3) 2018 : 84-91 [i3] 瓦利德·阿马尔 , 德克·格罗内维尔德 , Chandra Bhagavatula公司 , 伊兹·贝尔塔基 , 迈尔斯·克劳福德 , 道格·唐尼 , 杰森·邓克伯格 , 艾哈迈德·埃尔戈哈里 , 谢尔盖·费尔德曼 , 武哈 , 罗德尼·金尼 , 塞巴斯蒂安·科尔迈尔 , 凯尔·洛 , 泰勒·穆雷 , 徐汉Ooi , 马修·彼得斯 , 乔安娜·鲍尔 , 萨姆·斯肯斯伯格 , 露西·路·王 , 克里斯·威廉姆 , 郑源 , 马德琳·范·祖伦 , 奥尼 :
语义学者的文学图形建构。 CoRR公司 abs/1805.02262 ( 2018 ) [i2] 艾哈迈德·阿尔哈泰卜 , 伊兹·贝尔塔基 :
可靠mmWave系统的机器学习:阻塞预测和主动切换。 CoRR公司 abs/1807.02723 ( 2018 ) [i1] 伊兹·贝尔塔基 , 凯尔·洛 , 瓦利德·阿马尔 :
用最大集中注意力和句子级监督改进远程监督。 CoRR公司 abs/1810.12956 ( 2018 )