本杰明·穆勒
人员信息
附属: Meta,美国纽约市
其他同名人员
本杰明·埃格隆·穆勒 本杰明·米勒 (又名:本杰明·穆勒) — 消歧页 埃利夫·B·米勒 (又名:埃利夫·本杰明·穆勒、埃利夫·穆勒、艾利夫·穆勒) 马克斯·本杰明·穆勒 本杰明·米勒 0001 (又名:本杰明·米勒 0001 ) — 瑞士洛桑大学 (还有1个) 本杰明·米勒 0002 -德国柏林祖色学院 本杰明·米勒 0003 -德国汉堡联邦武装部队大学赫尔穆特·施密特大学 弗洛里安·米勒 0003 (又名:弗洛里安·本杰明·米勒) — 德国慕尼黑LMU (还有1个) 本杰明·穆勒 本杰明·穆勒
优化列表
![笔记](https://dblp.org/img/note-mark.dark.12x12.png)
2020年–今天
2024 [i13] Tu Anh Nguyen先生 , 本杰明·穆勒 , 余伯凯 , Marta R.Costa-jussá , 马哈·埃尔巴亚德 , 斯拉维亚·波普里 , 保尔·安布罗斯·杜昆 , 罗宾·阿尔盖尔斯 , 鲁斯兰·马夫柳托夫 , Itai网关 , 加布里埃尔·辛纳维 , 胡安·皮诺 , 贝尼特·萨格特 , Emmanuel Dupoux公司 :
SpiRit LM:交错的口语和书面语言模型。 CoRR公司 abs/2402.05755 ( 2024 ) 2023 [c15] 本杰明·穆勒 , 约翰·维廷 , 乔纳森·克拉克 , 汤姆·奎亚特科夫斯基 , 塞巴斯蒂安·鲁德 , 利维奥·索尔斯 , 罗伊·阿哈罗尼 , 乔纳森·赫齐格 , 王欣怡 :
跨语言问答的归因评估和建模。 EMNLP公司 2023 : 144-157 [第14条] 阿西姆·埃尔索伊 , 格森·维兹卡拉 , 塔斯米亚·塔辛·梅耶沙 , 本杰明·穆勒 :
生成语言模型在哪些语言中是最正式的? 分析跨语言的形式分布。 EMNLP(调查结果) 2023 : 2650-2666 [第13条] 本杰明·穆勒 , 贝伦·阿拉斯特鲁伊 , Prangship Hansanti公司 , Elahe Kalbassi公司 , 克里斯托夫·罗珀斯 , 埃里克·迈克尔·史密斯 , 阿迪娜·威廉姆斯 , 卢克·泽特莫耶 , 皮埃尔·安德鲁斯 , Marta R.Costa-jussá :
Gender-GAP管道:用于55种语言性别特征描述的Gender-Aware Polyglot管道。 WMT公司 2023 : 536-550 [i12] 阿西姆·埃尔索伊 , 格森·维兹卡拉 , 塔斯米亚·塔辛·梅耶沙 , 本杰明·穆勒 :
生成语言模型在哪些语言中最为正式? 分析跨语言的形式分布。 CoRR公司 abs/2302.12299 ( 2023 ) [i11] 本杰明·穆勒 , 约翰·维廷 , 乔纳森·克拉克 , 汤姆·奎亚特科夫斯基 , 塞巴斯蒂安·鲁德 , 利维奥·巴尔迪尼·索尔斯 , 罗伊·阿哈罗尼 , 乔纳森·赫齐格 , 王欣怡 :
跨语言问答的归因评估和建模。 CoRR公司 abs/2305.14332 ( 2023 ) [i10] 本杰明·穆勒 , 贝伦·阿拉斯特鲁伊 , Prangship Hansanti公司 , Elahe Kalbassi公司 , 克里斯托夫·罗珀斯 , 埃里克·迈克尔·史密斯 , 阿迪娜·威廉姆斯 , 卢克·泽特莫耶 , 皮埃尔·安德鲁斯 , Marta R.Costa-jussá :
Gender-GAP管道:用于55种语言性别特征描述的Gender-Aware Polyglot管道。 CoRR公司 abs/2308.16871 ( 2023 ) [第九章] 卢卡斯·班达卡 , Davis Liang公司 , 本杰明·穆勒 , 米克尔·阿特克斯 , 萨蒂亚·纳拉扬·舒克拉 , 唐纳德·胡萨 , 纳曼·戈亚尔 , 阿比南丹·克里希南 , 卢克·泽特莫耶 , 马迪安·卡布萨 :
Belebele基准:122种语言变体的平行阅读理解数据集。 CoRR公司 abs/2308.16884 ( 2023 ) [i8] 李丽余(Lili Yu) , 博文石 , 拉马坎斯·帕苏努鲁 , 本杰明·穆勒 , 奥尔加·戈洛夫涅娃 , 王天禄 , 阿伦·巴布 , 平塘 , 布莱恩·卡勒 , 雪莉·谢宁 , 坎迪斯·罗斯 , 亚当·波利亚克 , 罗素·豪斯 , 瓦苏·夏尔马 , 徐普欣(Puxin Xu) , Hovhannes Tamoyan公司 , 奥伦·阿舒尔 , 乌列尔·辛格 , 尚文丽 , 张山 , 理查德·詹姆斯 , 加吉·戈什 , 亚尼夫·泰格曼 , 玛丽亚姆·法泽尔·扎兰迪 , 阿斯利塞利基伊尔马兹 , 卢克·泽特莫耶 , Armen Aghajanyan先生 :
缩放自回归多模态模型:预训练和指令调整。 CoRR公司 abs/2309.02591 ( 2023 ) 2022 【b1】 本杰明·穆勒 :
我们如何使语言模型更好地处理自然语言的多样性和可变性? (评论《语言的现代性》面对的是语言的多样性和多样性?)。 法国巴黎索邦大学, 2022 [第12条] 本杰明·穆勒 , 卢卡·索尔达尼 , Rik Koncel-Kedziorski公司 , 埃里克·林德 , 亚历山德罗·莫希蒂 :
跨语言开放域问题解答和答案句子生成。 AACL/IJCNLP(1) 2022 : 337-353 [第11条] 本杰明·穆勒 , 安东尼奥斯·阿纳斯塔索普洛斯 , 贝诺西翁 , 杰梅·塞达 :
mBERT n’est que le starting的Quandátre缺席:新语言的盖勒(Gérer de nouvelles Languagesál’aide de modèles de Languages-multilingues)(当从mBERT中消失只是一个开始:用多语言模型处理新语言)。 TALN-RECITAL公司 2022 : 450-451 [第10条] 本杰明·穆勒 , Deepanshu Gupta公司 , Jean-Philippe Fauconnier女士 , Siddharth Patwardhan先生 , 大卫·范戴克 , 萨琴·阿加瓦尔 :
你所知道的语言影响你所学的语言:语言特征对多语言文本到文本转换的影响。 TL4NLP型 2022 : 88-102 【c9】 杰苏霍巴·阿拉比 , 利迪亚·尼什姆 , 本杰明·穆勒 , 卡米尔·雷伊 , 贝诺西翁 , 雷切尔·鲍登 :
WMT 2022的Inria-ALMAnaCH:转录是否有助于跨脚本机器翻译? WMT公司 2022 : 233-243 [i7] 本杰明·穆勒 , Deepanshu Gupta公司 , Siddharth Patwardhan先生 , Jean-Philippe Fauconnier女士 , 大卫·范戴克 , 萨琴·阿加瓦尔 :
你知道的语言会影响你所学的人:语言特征对多语言文本到文本转换的影响。 CoRR公司 abs/2212.01757 ( 2022 ) 2021 【c8】 本杰明·穆勒 , 亚奈·埃拉扎尔 , 贝诺西翁 , 杰梅·塞达 :
首先对齐,然后预测:了解多语言BERT的跨语言能力。 EACL公司 2021 : 2214-2231 【c7】 本杰明·穆勒 , 安东尼奥斯·阿纳斯塔索普洛斯 , 贝诺西翁 , 杰梅·塞达 :
当从mBERT中看不到时,这才刚刚开始:用多语言模型处理新语言。 NAACL-HLT公司 2021 : 448-462 [i6] 本杰明·穆勒 , 亚奈·埃拉扎尔 , 贝诺西翁 , 杰梅·塞达 :
首先对齐,然后预测:了解多语言BERT的跨语言能力。 CoRR公司 腹肌/2101.11109 ( 2021 ) [i5] 本杰明·穆勒 , 卢卡·索尔达尼 , Rik Koncel-Kedziorski公司 , 埃里克·林德 , 亚历山德罗·莫希蒂 :
跨语言GenQA:一种用于开放领域问题回答的语言-认知生成性问题回答方法。 CoRR公司 abs/2110.07150 ( 2021 ) 2020 【c6】 杰梅·塞达 , 法拉·埃萨迪 , 阿马尔·费蒂 , 马蒂厄Futeral , 本杰明·穆勒 , 佩德罗·哈维尔·奥尔蒂斯·苏亚雷斯 , 贝诺西翁 , 阿比谢克·斯利瓦斯塔瓦 :
构建用户生成的内容北非阿拉伯树库:应对地狱。 国际计算语言学协会 2020 : 1139-1150 【c5】 路易·马丁 , 本杰明·穆勒 , 佩德罗·哈维尔·奥尔蒂斯·苏亚雷斯 , 尤安·杜邦 , 洛朗·罗马利 , 埃里克·德拉·克莱格里 , 杰梅·塞达 , 贝诺西翁 :
CamemBERT:一种雅致的法语模式。 国际计算语言学协会 2020 : 7203-7219 【c4】 佩德罗·哈维尔·奥尔蒂斯·苏亚雷斯 , 尤安·杜邦 , 本杰明·穆勒 , 洛朗·罗马利 , 贝诺西翁 :
建立法国命名实体识别新技术。 LREC公司 2020 : 4631-4638 【c3】 路易·马丁 , 本杰明·穆勒 , 佩德罗·哈维尔·奥尔蒂斯·苏亚雷斯 , 尤安·杜邦 , 洛朗·罗马利 , 埃里克·维尔蒙特·德·拉克莱格里 , 贝诺西翁 , 杰梅·塞达 :
《语言语境的模式》(Les modèLes de langue contexturels Camembert pour le français:impact de la taille et de l'hétérogénéitédes donn es d’donnes d’carinement)(C AMEM BERT法语语境语言模型:训练数据大小和异质性的影响)。 JEP-TALN-RECITAL(2) 2020 : 54-65 [i4] 本杰明·穆勒 , 贝诺西翁 , 杰梅·塞达 :
多语种语言模型能转换成一种看不见的方言吗? 北非阿拉伯人个案研究。 CoRR公司 abs/2005.00318 ( 2020 ) [i3] 佩德罗·哈维尔·奥尔蒂斯·苏亚雷斯 , 尤安·杜邦 , 本杰明·穆勒 , 洛朗·罗马利 , 贝尼特·萨格特 :
建立法国命名实体承认的新技术。 CoRR公司 abs/2005.13236 ( 2020 ) [i2] 本杰明·穆勒 , 安东尼斯·阿纳斯塔索普洛斯 , 贝诺西翁 , 杰梅·塞达 :
当从mBERT中看不到时,这才刚刚开始:用多语言模型处理新语言。 CoRR公司 abs/2010.12858 ( 2020 )
2010 – 2019
2019 【c2】 本杰明·穆勒 , 贝诺西翁 , 杰梅·塞达 :
增强BERT以实现词汇规范化。 W-螺母@EMNLP 2019 : 297-306 [i1] 路易·马丁 , 本杰明·穆勒 , 佩德罗·哈维尔·奥尔蒂斯·苏亚雷斯 , 尤安·杜邦 , 洛朗·罗马利 , Éric Villemonte de la Clergerie酒店 , 杰梅·塞达 , 贝诺西翁 :
CamemBERT:一种雅致的法语模式。 CoRR公司 abs/1911.03894 ( 2019 ) 2018 【c1】 加内什·贾瓦哈尔 , 本杰明·穆勒 , 阿马尔·费蒂 , 路易·马丁 , 埃里克·维尔蒙特·德·拉克莱格里 , 贝诺西翁 , 杰梅·塞达 :
ELMoLex:连接ELMo和词典功能以进行依赖关系分析。 CoNLL共享任务(2) 2018 : 223-237
合著者索引
![](https://dblp.org/img/cog.dark.24x24.png)