尤纳·乔
人员信息
其他同名人员
优化列表
![笔记](https://dblp.dagstuhl.de/img/note-mark.dark.12x12.png)
2020年-今天
2023 [公元41年] 周映雪 , 杰浩 , 穆昆德·隆塔 , 杨柳 , 尤纳·乔 , 邢凡 , 盐滨路 , Vishal Thanvantri Vasudevan公司 , 凯伦·吉莱斯皮 , 泽纳布·雷西 :
统一上下文查询重写。 ACL(行业) 2023 : 608-615 [公元40年] 郑晨 , 姜紫嫣 , 范阳 , 战奎河 , 侯玉鹏 , 尤纳·乔 , 朱利安·麦考利 , Aram Galstyan公司 , 胡晓华 , 杨杰(音译) :
个性化生成AI@CIKM 2023第一次研讨会:个性化遇到大型语言模型。 CIKM公司 2023 : 5267-5270 [公元39年] 郑晨 , 姜紫嫣 , 范扬 , 尤纳·乔 , 邢凡 , 黄晓江 , 卢彦斌 , Aram Galstyan公司 :
Graph Meets LLM:一种新的协作过滤方法,用于增强会话理解。 EMNLP(行业跟踪) 2023 : 811-819 [公元38年] 蔡京伦 , 李明达 , 姜紫嫣 , 尤纳·乔 , 郑晨 , 杨柳 , 邢凡 , 郭晨雷 :
KG-ECO:用于查询重写的知识图增强实体更正。 ICASSP公司 2023 : 1-5 [第九章] 蔡京伦 , 李明达 , 姜紫嫣 , 尤纳·乔 , 郑晨 , 杨柳 , 邢凡 , 郭晨雷 :
KG-ECO:用于查询重写的知识图增强实体校正。 CoRR公司 abs/2302.10454 ( 2023 ) [i8] 盐城王 , 姜紫嫣 , 郑晨 , 范扬 , 周映雪 , 尤纳·乔 , 邢凡 , 黄晓江 , 盐滨路 , 杨英珍 :
RecMind:大型语言模型支持的推荐代理。 CoRR公司 腹肌/2308.14296 ( 2023 ) [i7] 刘敏倩 , 英申 , 徐志阳 , 曹一新 , 尤纳·乔 , 瓦比哈夫·库马尔 , 雷扎·加纳丹 , 黄立福 :
X-Eval:通过具有辅助评估特性的增强指令调整进行的可通用多方面文本评估。 CoRR公司 abs/2311.08788 ( 2023 ) 2022 [公元37年] 李定成 , 郑晨 , 尤纳·乔 , 杰浩 , 刘晓虎 , 范兴 , 郭晨雷 , 杨柳 :
克服Seq2seq语言生成的域适应过程中的灾难性遗忘。 NAACL-HLT公司 2022 : 5441-5454 2020 [i6] 瓦伦·库马尔 , 阿什图什·乔达里 , 尤纳·乔 :
使用预先训练的Transformer模型进行数据增强。 CoRR公司 abs/2003.02245 ( 2020 ) [i5] 泰国儿子阮 , 简·尼休斯 , 尤纳·乔 , 唐乐哈 , 凯文·基尔古尔 , 马库斯·米勒 , 马蒂亚斯·斯珀伯 , 塞巴斯蒂安·施蒂克 , 亚历克斯·魏贝尔 :
用于同步语音翻译的低延迟ASR。 CoRR公司 腹肌/2003.09891 ( 2020 )
2010 – 2019
2019 [公元36年] 尤纳·乔 , 何燮 , 约翰·拉勒 , 瓦伦·库马尔 , 威廉·坎贝尔 :
通过优化多样性实现自然语言理解的高效半监督学习。 ASRU公司 2019 : 1077-1084 [公元35年] 子梦秋 , 尤纳·乔 , 马晓春 , 威廉·坎贝尔 :
基于图形的自然语言理解半监督学习。 文本图形@EMNLP 2019 : 151-158 [i4] 尤纳·乔 , 何燮 , 约翰·拉勒 , 瓦伦·库马尔 , 威廉·坎贝尔 :
通过优化多样性实现自然语言理解的高效半监督学习。 CoRR公司 abs/1910.04196 ( 2019 ) 2017 [公元34年] 简·尼休斯 , 尤纳·乔 , 唐乐哈 , 亚历克斯·魏贝尔 :
分析神经MT搜索和模型性能。 不高于ACL 2017 : 11-17 [公元33年] 尤纳·乔 , 简·尼休斯 , 亚历克斯·魏贝尔 :
基于NMT的实时口语翻译中的分词和标点插入。 INTERSPEECH公司 2017 : 2645-2649 [公元32年] 尤纳·乔 , 简·尼休斯 , 亚历克斯·魏贝尔 :
域相关标点和分段插入。 IWSLT公司 2017 : 74-81 [公元31年] 简·尼休斯 , 尤纳·乔 :
利用多任务学习开发神经机器翻译的语言资源。 WMT公司 2017 : 80-89 [公元30年] Ngoc-Quan Pham公司 , 简·尼休斯 , 唐乐哈 , 尤纳·乔 , 马蒂亚斯·斯珀伯 , 亚历山大·怀贝尔 :
卡尔斯鲁厄技术系统研究所负责2017年WMT新闻翻译任务。 WMT公司 2017 : 366-373 [i3] 简·尼休斯 , 尤纳·乔 , 唐乐哈 , 亚历克斯·魏贝尔 :
分析神经MT搜索和模型性能。 CoRR公司 abs/1708.00563 ( 2017 ) [i2] 简·尼休斯 , 尤纳·乔 :
利用多任务学习开发神经机器翻译的语言资源。 CoRR公司 abs/1708.00993 ( 2017 ) 2016 【b1】 尤纳·乔 :
自发语音的机器翻译。 德国卡尔斯鲁厄大学, 2016 [公元29年] 简·尼休斯 , 尤纳·乔 , 唐乐哈 , 亚历克斯·魏贝尔 :
神经机器翻译的预翻译。 冷却 2016 : 1828-1836 [公元28年] 简·尼休斯 , 泰国儿子阮 , 尤纳·乔 , 唐乐哈 , 凯文·基尔古尔 , 马库斯·米勒 , 马蒂亚斯·斯珀伯 , 塞巴斯蒂安·施蒂克 , 亚历克斯·魏贝尔 :
低延迟语音翻译的动态转录。 INTERSPEECH公司 2016 : 2513-2517年 [c27] 尤纳·乔 , 简·尼休斯 , 唐乐哈 , 马蒂亚斯·斯珀伯 , 穆罕默德·梅迪亚尼 , 亚历克斯·魏贝尔 :
NMT系统的改编和组合:2016年IWSLT的KIT翻译系统。 IWSLT公司 2016 [公元26年] 尤纳·乔 , 简·尼休斯 , 唐乐哈 , 亚历克斯·魏贝尔 :
使用NMT去除多语言障碍。 IWSLT公司 2016 [公元25年] 马库斯·米勒 , 泰国儿子阮 , 简·尼休斯 , 尤纳·乔 , 巴斯蒂安·克鲁格 , 唐乐哈 , 凯文·基尔古尔 , 马蒂亚斯·斯珀伯 , 穆罕默德·梅迪亚尼 , 塞巴斯蒂安·施蒂克 , 亚历克斯·魏贝尔 :
演讲翻译-演讲同步翻译的演讲翻译框架。 HLT-NAACL演示 2016 : 82-86 [公元24年] 简·尼休斯 , 唐乐哈 , 尤纳·乔 , 亚历克斯·魏贝尔 :
在神经网络语言模型中使用因子化单词表示。 WMT公司 2016 : 74-82 【c23】 唐乐哈 , 尤纳·乔 , 简·尼休斯 , 穆罕默德·梅迪亚尼 , 马蒂亚斯·斯珀伯 , 亚历山大·阿劳岑 , 亚历山大·怀贝尔 :
卡尔斯鲁厄技术系统研究所负责2016年WMT新闻翻译任务。 WMT公司 2016 : 303-310 [i1] 简·尼休斯 , 尤纳·乔 , 唐乐哈 , 亚历克斯·魏贝尔 :
神经机器翻译的预翻译。 CoRR公司 abs/1610.05243 ( 2016 ) 2015 [c22] 尤纳·乔 , 凯文·基尔古尔 , 简·尼休斯 , 亚历克斯·魏贝尔 :
NN和CRF模型的组合用于标点符号和不流畅的联合检测。 INTERSPEECH公司 2015 : 3650-3654 【c21】 尤纳·乔 , 简·尼休斯 , 凯文·基尔古尔 , 亚历克斯·魏贝尔 :
实时口语翻译的标点插入。 IWSLT公司 2015 [公元20年] 唐乐哈 , 简·尼休斯 , 尤纳·乔 , 穆罕默德·梅迪亚尼 , 亚历克斯·魏贝尔 :
2015年IWSLT的KIT翻译系统。 IWSLT(评估活动) 2015 [第19条] 尤纳·乔 , 唐乐哈 , 简·尼休斯 , 特蕾莎·赫尔曼 , 穆罕默德·梅迪亚尼 , 张宇奇(Yuqi Zhang) , 亚历克斯·魏贝尔 :
卡尔斯鲁厄技术翻译系统研究所2015年WMT。 WMT@EMNLP 2015 : 92年至97年 [第18条] 唐乐哈 , Quoc-Khanh Do公司 , 尤纳·乔 , 简·尼休斯 , 亚历山大·阿劳岑 , 弗朗索瓦·伊冯 , 亚历克斯·魏贝尔 :
WMT 2015的KIT-LIMSI翻译系统。 WMT@EMNLP 2015 : 120-125 2014 [第17条] 尤纳·乔 , 简·尼休斯 , 亚历克斯·魏贝尔 :
将语音不流畅消除技术紧密集成到SMT中。 EACL公司 2014 : 43-47 [第16条] 尤纳·乔 , 简·尼休斯 , 亚历克斯·魏贝尔 :
多方会议的机器翻译:分段和不流畅消除策略。 IWSLT公司 2014 [第15条] 伊莎贝尔·斯拉维克 , 穆罕默德·梅迪亚尼 , 简·尼休斯 , 张宇奇(Yuqi Zhang) , 尤纳·乔 , 特雷莎·赫尔曼 , 唐乐哈 , 亚历克斯·魏贝尔 :
IWSLT 2014的KIT翻译系统。 IWSLT(评估活动) 2014 [第14条] 尤纳·乔 , 莎拉·芬费尔 , 塞巴斯蒂安·施蒂克 , 亚历克斯·魏贝尔 :
讲座中的自发性演讲语料库:口语处理和翻译的KIT讲座语料库。 LREC公司 2014 : 1554年-1559年 [第13条] 马库斯·弗雷塔格 , 斯蒂芬·佩茨 , 乔恩·伍贝克 , 赫尔曼·奈伊 , 马蒂亚斯·哈克 , 里科·森里奇 , 纳迪尔·杜拉尼 , 玛丽亚·纳德杰德 , 菲利普·威廉姆斯 , 菲利普·科恩 , 特蕾莎·赫尔曼 , 尤纳·乔 , 亚历克斯·魏贝尔 :
EU-BRIDGE MT:组合机器翻译。 WMT@ACL 2014 : 105-113 [第12条] 特蕾莎·赫尔曼 , 穆罕默德·梅迪亚尼 , 尤纳·乔 , 唐乐哈 , 简·尼休斯 , 伊莎贝尔·斯拉维克 , 张宇奇(Yuqi Zhang) , 亚历克斯·魏贝尔 :
卡尔斯鲁厄科技翻译系统研究所2014年WMT。 WMT@ACL 2014 : 130-135 2013 [第11条] 尤纳·乔 , 克里斯蒂安·福根 , 特蕾莎·赫尔曼 , 凯文·基尔古尔 , 穆罕默德·梅迪亚尼 , 克里斯蒂安·莫尔 , 简·尼休斯 , 凯·罗特曼 , 克里斯蒂安·萨姆 , 塞巴斯蒂安·施蒂克 , 亚历克斯·魏贝尔 :
德语演讲同声翻译的真实系统。 INTERSPEECH公司 2013 : 3473-3477 [第10条] 尤纳·乔 , 唐乐哈 , 亚历克斯·魏贝尔 :
基于CRF的德语到英语口语翻译中语义特征的不流利检测。 IWSLT公司 2013 【c9】 唐乐哈 , 特蕾莎·赫尔曼 , 简·尼休斯 , 穆罕默德·梅迪亚尼 , 尤纳·乔 , 张宇奇(Yuqi Zhang) , 伊莎贝尔·斯拉维克 , 亚历克斯·魏贝尔 :
IWSLT 2013的KIT翻译系统。 IWSLT(评估活动) 2013 【c8】 尤纳·乔 , 唐乐哈 , 穆罕默德·梅迪亚尼 , 简·尼休斯 , 特蕾莎·赫尔曼 , 伊莎贝尔·斯拉维克 , 亚历克斯·魏贝尔 :
卡尔斯鲁厄技术翻译系统研究所2013年WMT。 WMT@ACL 2013 : 104-108 【c7】 斯蒂芬·佩茨 , 萨博-曼苏尔 , 马蒂亚斯·哈克 , 马库斯·弗雷塔格 , 赫尔曼·奈伊 , 尤纳·乔 , 特蕾莎·赫尔曼 , 穆罕默德·梅迪亚尼 , 简·尼休斯 , 亚历克斯·魏贝尔 , 亚历山大·阿劳岑 , Quoc-Khanh Do公司 , Bianka Buschbeck公司 , 托尼奥·旺德马赫 :
2013年WMT联合提交QUAERO项目。 WMT@ACL 2013 : 185-192 2012 【c6】 穆罕默德·梅迪亚尼 , 张宇奇(Yuqi Zhang) , 唐乐哈 , 简·尼休斯 , 尤纳·乔 , 特蕾莎·赫尔曼 , 雷纳尔·卡格尔 , 亚历克斯·魏贝尔 :
IWSLT 2012的KIT翻译系统。 IWSLT公司 2012 : 38-45 【c5】 尤纳·乔 , 简·尼休斯 , 亚历克斯·魏贝尔 :
使用单语翻译系统的语音翻译中的分段和标点预测。 IWSLT公司 2012 : 252-259 【c4】 塞巴斯蒂安·施蒂克 , 弗洛里安牛皮纸 , 克里斯蒂安·莫尔 , 特蕾莎·赫尔曼 , 尤纳·乔 , 亚历克斯·魏贝尔 :
演讲翻译的KIT演讲语料库。 LREC公司 2012 : 3409-3414 【c3】 简·尼休斯 , 张宇奇(Yuqi Zhang) , 穆罕默德·梅迪亚尼 , 特蕾莎·赫尔曼 , 尤纳·乔 , 亚历克斯·魏贝尔 :
卡尔斯鲁厄技术翻译系统研究所2012年WMT。 NAACL-HLT的WMT 2012 : 349-355 2011 【c2】 穆罕默德·梅迪亚尼 , 尤纳·乔 , 简·尼休斯 , 特蕾莎·赫尔曼 , 亚历克斯·魏贝尔 :
2011年IWSLT的KIT英法翻译系统。 IWSLT公司 2011 : 73-78 【c1】 卡里姆·布达马内 , Bianka Buschbeck公司 , 尤纳·乔 , 约塞普·玛丽亚·克雷戈 , 马库斯·弗雷塔格 , 托马斯·拉弗根 , 赫尔曼·奈伊 , 简·尼休斯 , 斯蒂芬·佩茨 , 让·塞内拉特 , 阿特姆·索科洛夫 , 亚历克斯·魏贝尔 , 托尼奥·旺德马赫 , 乔恩·伍贝克 , 弗朗索瓦·伊冯 :
夸罗计划中口语翻译的进展。 IWSLT公司 2011 : 114至120
合著者索引
![](https://dblp.dagstuhl.de/img/cog.dark.24x24.png)