卡蒂克·拉曼 0001
人员信息
附属: 谷歌 隶属关系(前): 微软研究院 隶属关系(前): 美国纽约州伊萨卡康奈尔大学
其他同名人员
卡蒂克·拉曼 — 消歧页 卡蒂克·拉曼 0002 — 印度马德拉斯理工学院,印度布巴特 (还有1个)
优化列表
2020年–今天
2023 [公元20年] 阿迪蒂·乔杜里 , 卡蒂克·拉曼 , 斯里尼瓦桑 , 桥本和驹 , 迈克·本德斯基 , 马克·纳约克 :
探索关联预测合成查询生成的可行性。 电子商务@SIGIR 2023 [第19条] 塞巴斯蒂安·霍夫施塔特 , 陈洁操 , 卡蒂克·拉曼 , 哈米德·扎马尼 :
FiD-Light:高效的检索增强文本生成。 SIGIR公司 2023 : 1437-1447 [i18] 阿迪蒂·乔达里 , 卡蒂克·拉曼 , 斯里尼瓦桑 , 桥本和驹 , 迈克·本德斯基 , 马克·纳约克 :
探索关联预测合成查询生成的可行性。 CoRR公司 abs/2305.11944 ( 2023 ) [i17] 凌雨高 , 阿迪蒂·乔杜里 , 斯里尼瓦桑 , 桥本和驹 , 卡蒂克·拉曼 , 迈克尔·本德斯基 :
使用大型语言模型进行模糊感知上下文学习。 CoRR公司 abs/2309.07900 ( 2023 ) [i16] 阿迪蒂·乔杜里 , 卡蒂克·拉曼 , 迈克尔·本德斯基 :
这都是相对的!- 一种改进零镜头相关预测的综合查询生成方法。 CoRR公司 abs/2311.07930 ( 2023 ) 【i15】 桥本和驹 , 卡蒂克·拉曼 , 迈克尔·本德斯基 :
一次迈出一步,了解演示的增量效用:对少数镜头上下文学习重新排序的分析。 CoRR公司 腹肌/2311.09619 ( 2023 ) 2022 [第18条] 斯里尼瓦桑 , 卡蒂克·拉曼 , 阿努帕姆·萨曼塔 , 廖凌瑞 , 卢卡·贝尔泰利 , 迈克尔·本德斯基 :
QUILL:使用检索增强和多级提取的大型语言模型的查询意图。 EMNLP(行业跟踪) 2022 : 492至501 [第17条] 卡蒂克·拉曼 , 伊夫特哈·奈姆 , 陈洁操 , 桥本和驹 , 基兰·亚拉桑吉 , 斯里尼瓦桑 :
将序列标记转换为Seq2Seq任务。 EMNLP公司 2022 : 11856-11874 [第14条] 卡蒂克·拉曼 , 伊夫特哈·奈姆 , 陈洁草 , 桥本和驹 , 基兰·亚拉桑吉 , 斯里尼瓦桑 :
将序列标记转换为Seq2Seq任务。 CoRR公司 abs/2203.08378 ( 2022 ) [i13] 塞巴斯蒂安·霍夫施塔特 , 陈洁操 , 卡蒂克·拉曼 , 哈米德·扎马尼 :
基于相关采样的多任务检索增强文本生成。 CoRR公司 abs/2207.03030 ( 2022 ) [i12] 塞巴斯蒂安·霍夫施塔特 , 陈洁操 , 卡蒂克·拉曼 , 哈米德·扎马尼 :
FiD-Light:高效的检索增强文本生成。 CoRR公司 abs/2209.14290 ( 2022 ) [i11] 桥本和驹 , 卡蒂克·拉曼 :
GROOT:生成序列标签的纠正性奖励优化。 CoRR公司 abs/2209.14694 ( 2022 ) [i10] 斯里尼瓦桑 , 卡蒂克·拉曼 , 阿努帕姆·萨曼塔 , 廖凌瑞 , 卢卡·贝尔泰利 , 迈克·本德斯基 :
QUILL:使用检索增强和多级提取的大型语言模型的查询意图。 CoRR公司 abs/2210.15718 ( 2022 ) [i9] 桥本和驹 , 伊夫特哈·奈姆 , 卡蒂克·拉曼 :
波束搜索如何改进生成序列标记中的跨层置信度估计? CoRR公司 abs/2212.10767 ( 2022 ) 2021 [第16条] 斯里尼瓦桑 , 卡蒂克·拉曼 , 陈洁操 , 迈克尔·本德斯基 , 马克·纳约克 :
WIT:基于Wikipedia的图像文本数据集,用于多模式多语言机器学习。 SIGIR公司 2021 : 2443-2449 [i8] 斯里尼瓦桑 , 卡蒂克·拉曼 , 陈洁操 , 迈克尔·本德斯基 , 马克·纳约克 :
WIT:基于Wikipedia的图像文本数据集,用于多模式多语言机器学习。 CoRR公司 abs/2103.01913 ( 2021 ) 2020 [第15条] 阿迪蒂亚·西德汉特 , 梅尔文·约翰逊 , 蔡英文(Henry Tsai) , 纳文·阿里 , 杰森·里萨 , 安库尔·巴纳 , 奥汉·菲拉特 , 卡蒂克·拉曼 :
大规模多语言神经机器翻译的跨语言有效性评估。 AAAI公司 2020 : 8854-8861 [第14条] 陈洁操 , 刘洋 , 卡蒂克·拉曼 , 迈克尔·本德斯基 , 郑荣业 , Yun Zhou(云舟) , 马克·纳约克 , 蔡丹阳 , 埃桑·埃马扎德 :
DiPair:用于万亿规模文本匹配和配对建模的快速准确蒸馏。 EMNLP(调查结果) 2020 : 2925-2937 [i7] Shailesh Bavadekar公司 , 安德鲁·M·戴 , 约翰·戴维斯 , 达米安·德斯方丹(Damien Desfontaines) , 伊利亚·埃克斯坦 , 凯蒂·埃弗雷特 , 亚历克斯·法布里坎特 , 杰拉尔多·弗洛雷斯 , 叶夫根尼·加布里洛维奇 , 克里希纳·加德帕利 , 谢恩玻璃 , 雷曼·黄 , 查塔尼亚·卡马特 , 丹尼斯·卡夫 , 阿基姆·库穆克 , 希纳利·马尔法蒂亚 , 耶尔·迈耶 , 本杰明米勒 , 亚当·皮尔斯 , Irippuge Milinda Perera公司 , 维基·拉马钱德兰 , 卡蒂克·拉曼 , 托马斯·罗斯勒 , 伊扎克·沙夫兰 , 托默·谢克尔 , 夏洛特·斯坦顿 , 雅各布·斯蒂姆斯 , 孙咪咪 , 格雷戈里·威利尼乌斯 , 马斯鲁尔·佐吉 :
谷歌新冠肺炎搜索趋势症状数据集:匿名过程描述(1.0版)。 CoRR公司 abs/2009.01265 ( 2020 ) [i6] 陈洁操 , 刘洋 , 卡蒂克·拉曼 , 迈克尔·本德斯基 , Jung-Jung Yeh(郑正业) , Yun Zhou(云舟) , 马克·纳约克 , 蔡丹阳 , 埃桑·埃马扎德 :
DiPair:用于万亿级文本匹配和配对建模的快速准确提取。 CoRR公司 abs/2010.03099 ( 2020 ) [i5] 阿迪蒂·乔杜里 , 卡蒂克·拉曼 , 斯里尼瓦桑 , 陈洁操 :
DICT-MLM:使用双语词典改进的多语言预培训。 CoRR公司 abs/2010.12566 ( 2020 )
2010 – 2019
2019 [i4] 卡兰·辛哈尔 , 卡蒂克·拉曼 , 打捆机十类 :
使用图文数据学习多语言单词嵌入。 CoRR公司 abs/1905.12260 ( 2019 ) [i3] 阿迪蒂亚·西德汉特 , 梅尔文·约翰逊 , 蔡英文(Henry Tsai) , 纳文·阿里瓦扎甘 , 杰森·里萨 , 安库尔·巴纳 , 奥汉·菲拉特 , 卡蒂克·拉曼 :
大规模多语言神经机器翻译的跨语言有效性评估。 CoRR公司 abs/1909.00437 ( 2019 ) 2016 [第13条] 托尔斯滕·约阿希姆斯 , 卡蒂克·拉曼 :
同行评估的贝叶斯顺序聚合:KDD 2015的案例研究。 解决大规模学习任务 2016 : 286-299 2015 [第12条] 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 :
贝叶斯有序同级评分。 长@短 2015 : 149-156 2014 [j1] 卡蒂克·拉曼 , 保罗·N·贝内特 , 凯文·科林斯·汤普森 :
理解Web搜索中的内在多样性:提高整个会话的相关性。 ACM事务处理。 信息系统。 32 ( 4 ) : 20:1-20:45 ( 2014 ) [第11条] 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 :
依次进行同行评分的方法。 KDD公司 2014 : 1037-1046 [i2] 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 :
顺序同侪评分方法。 CoRR公司 腹肌/1404.3656 ( 2014 ) 2013 [第10条] 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 , 潘纳加·希瓦斯瓦米 , 托比亚斯·施纳贝尔 :
通过扰动实现稳定的协同学习。 ICML(3) 2013 : 837-845 【c9】 卡蒂克·拉曼 , 阿迪思·斯瓦米纳坦 , 格尔克 , 托尔斯滕·约阿希姆斯 :
超越大数据管道中的短视推断。 KDD公司 2013 : 86-94 【c8】 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 :
从自负的用户那里学习社会最优信息系统。 ECML/PKDD(2) 2013 : 128-144 【c7】 卡蒂克·拉曼 , 保罗·N·贝内特 , 凯文·科林斯·汤普森 :
走向整体相关性:探索网络搜索中的内在多样性。 SIGIR公司 2013 : 463-472 2012 【c6】 卡蒂克·拉曼 , Krysta M.Svore公司 , 兰·吉拉德·巴赫拉赫 , 克里斯托弗·J·C·伯格 :
从错误中学习:走向可纠正的学习算法。 CIKM公司 2012 : 1930-1934 【c5】 卡蒂克·拉曼 , 潘纳加·希瓦斯瓦米 , 托尔斯滕·约阿希姆斯 :
在线学习从隐性反馈多样化。 KDD公司 2012 : 705-713 2011 【c4】 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 , 潘纳加·希瓦斯瓦米 :
两级动态排名的结构化学习。 CIKM公司 2011 : 291-296 [i1] 卡蒂克·拉曼 , 托尔斯滕·约阿希姆斯 , 潘纳加·希瓦斯瓦米 :
两级动态排名的结构化学习。 CoRR公司 腹肌/1108.2754 ( 2011 ) 2010 【c3】 马诺伊·库马尔·钦纳科特拉 , 卡蒂克·拉曼 , 普什巴克·巴塔查里亚 :
多语言伪相关反馈:辅助语言的表现研究。 国际计算语言学协会 2010 : 1346-1356 【c2】 卡蒂克·拉曼 , 拉格汉德拉·乌杜帕 , 普什巴克·巴塔查里亚 , 阿比吉特·博勒 :
利用伪相关文档改进伪相关反馈。 ECIR公司 2010 : 573-576 【c1】 马诺伊·库马尔·钦纳科特拉 , 卡蒂克·拉曼 , 普什巴克·巴塔查里亚 :
多语言PRF:英语助人一臂之力。 SIGIR公司 2010 : 659-666