阿马尔·兰尼·特里基
人员信息
附属: 英国伦敦DeepMind 附属: 比利时鲁汶大学 附属: 韩国首尔延世大学
SPARQL查询
优化列表
2020年–今天
2024 【c7】 Michalis K.Titsias公司 , 亚历山大·加拉肖夫 , 阿马尔·兰尼·特里基 , 拉兹万·帕斯卡努 , 叶惠德 , Jörg Bornschein先生 :
非平稳数据在线分类的卡尔曼滤波。 ICLR公司 2024 [i13] 阿马尔·兰尼·特里基 , Jörg Bornschein先生 , 拉兹万·帕斯卡努 , 马库斯·赫特 , 安德烈斯·吉尔吉 , 亚历山大·加拉肖夫 , 叶惠德 , Michalis K.Titsias公司 :
重温动态评估:大型语言模型的在线适应。 CoRR公司 abs/2403.01518 ( 2024 ) [i12] Jörg Bornschein先生 , 李亚哲 , 阿马尔·兰尼·特里基 :
监督在线持续学习变形金刚。 CoRR公司 abs/2403.01554 ( 2024 ) [i11] 杰西卡·施鲁夫 , 亚历克西斯·贝洛特 , 阿马尔·兰尼·特里基 , 阿兰·马利克 , 伊莎贝拉·阿尔伯克基 , 亚瑟·格雷顿 , 亚历山大·达穆尔 , 西尔维娅·齐亚帕 :
在平衡数据以实现公平性或稳健性时,请注意图表。 CoRR公司 abs/2406.17433 ( 2024 ) 2023 [注2] Jörg Bornschein先生 , 亚历山大·加拉肖夫 , 罗斯·亨斯利 , 阿马尔·兰尼·特里基 , 陈玉田 , 阿尔斯兰·乔杜里 , 许欧文何 , 阿瑟·杜伊拉德 , 马西莫·卡西亚 , 奇轩·冯 , 沈嘉君 , 西尔维斯特·阿尔维斯·雷布菲 , 基蒂·斯塔普勒 , 迭戈·德·拉斯·卡斯 , 威尔·霍金斯 , 安吉利基·拉扎里杜 , 叶惠德 , 安德烈·鲁苏 , 拉兹万·帕斯卡努 , 马克·阿雷利奥·兰扎托 :
Nevis’22:从30年的计算机视觉研究中抽取的100个任务流。 J.马赫。 学习。 物件。 24 : 308:1-308:77 ( 2023 ) 【c6】 王子富 , 马克西姆·伯曼 , 阿马尔·兰尼·特里基 , 菲利普·H·S·托尔 , Devis Tuia公司 , Tinne Tuytelaars公司 , 吕克·范·古尔 , 余嘉谦 , 马修·布拉施科 :
重新审视语义分割的评估指标:联合上细粒度交集的优化和评估。 NeurIPS公司 2023 [i10] 马西莫·卡西亚 , 亚历山大·加拉肖夫 , 阿瑟·杜伊拉德 , 阿马尔·兰尼·特里基 , Dushyant Rao公司 , 米歇拉·帕格尼尼 , 劳伦特·查林 , 马克·阿雷利奥·兰扎托 , 拉兹万·帕斯卡努 :
面向计算优化迁移学习。 CoRR公司 abs/2304.13164 ( 2023 ) [第九章] Michalis K.Titsias公司 , 亚历山大·加拉肖夫 , 阿马尔·兰尼·特里基 , 拉兹万·帕斯卡努 , 叶惠德 , Jörg Bornschein先生 :
非平稳数据在线分类的卡尔曼滤波。 CoRR公司 abs/2306.08448 ( 2023 ) [i8] 亚当·菲什 , 阿马尔·兰尼·特里基 , 拉兹万·帕斯卡努 , Jörg Bornschein先生 , 安吉利基·拉扎里杜 , 埃琳娜·格里博夫斯卡娅 , 马克·阿雷利奥·兰扎托 :
走向稳健高效的持续语言学习。 CoRR公司 abs/2307.05741 ( 2023 ) [i7] 王子富 , 马克西姆·伯曼 , Amal Rannen Triki公司 , 菲利普·H·S·托尔 , Devis Tuia公司 , Tinne Tuytelaars公司 , 吕克·范·古尔 , 余嘉谦 , 马修·布拉施科 :
重新审视语义分割的评估指标:联合上细粒度交集的优化和评估。 CoRR公司 abs/2310.19252 ( 2023 ) 2022 [i6] Jörg Bornschein先生 , 亚历山大·加拉绍夫 , 罗斯·亨斯利 , 阿马尔·兰尼·特里基 , 陈玉田 , 阿尔斯兰·乔杜里 , 徐欧文何 , 阿瑟·杜伊拉德 , 马西莫·卡西亚 , 奇玄峰 , 沈嘉君 , 西尔维斯特·阿尔维斯·雷布菲 , 基蒂·斯塔普勒 , 迭戈·德·拉斯·卡斯 , 威尔·霍金斯 , 安吉利基·拉扎里杜 , 叶惠德 , 安德烈·鲁苏 , 拉兹万·帕斯卡努 , 马克·阿雷利奥·兰扎托 :
NEVIS’22:从30年的计算机视觉研究中抽取的100个任务流。 CoRR公司 abs/2211.11747 ( 2022 ) 2021 【c5】 伊尔贾·库兹博斯基 , Csaba Szepesvariá , 奥马尔·里瓦斯普拉塔 , 阿马尔·兰尼·特里基 , 拉兹万·帕斯卡努 :
关于优化在双下降中的作用:最小二乘法研究。 NeurIPS公司 2021 : 29567-29577 [i5] 伊尔贾·库兹博斯基 , Csaba Szepesvariá , 奥马尔·里瓦斯普拉塔 , 阿马尔·兰尼·特里基 , 拉兹万·帕斯卡努 :
关于优化在双下降中的作用:最小二乘法研究。 CoRR公司 腹肌/2107.12685 ( 2021 )
2010 – 2019
2019 【c4】 马兴晨 , 阿马尔·兰尼·特里基 , 马克西姆·伯曼 , 克里斯托斯·萨戈纳斯 , 雅克·卡奥 , 马修·布拉施科 :
神经网络压缩的贝叶斯优化框架。 ICCV公司 2019 : 10273-10282 【c3】 阿马尔·兰尼·特里基 , 马克西姆·伯曼 , 弗拉基米尔·科尔莫戈罗夫 , 马修·布拉施科 :
神经网络的函数范数。 ICCV研讨会 2019 : 748-752 2018 [j1] 阿马尔·兰尼·特里基 , 马修·布拉施科 , 尹文荣(Yoon Mo Jung) , Seungri Song先生 , 韩贤菊 , Seung Il Kim先生 , 朱明珠(Chulmin Joo) :
使用深层神经网络在光学相干断层扫描图像中对人类乳腺组织进行术中边缘评估。 计算。 医学成像图。 69 : 21-32 ( 2018 ) 【c2】 马克西姆·伯曼 , 阿马尔·兰尼·特里基 , 马修·布拉施科 :
Lovász-Softmax损失:神经网络中交叉超负测量优化的可追踪替代方法。 CVPR公司 2018 : 4413-4421 [i4] 马克西姆·伯曼 , 马修·布拉施科 , 阿马尔·兰尼·特里基 , 余嘉谦 :
是的,IoU损失是子模块-作为预测失误的函数。 CoRR公司 abs/1809.01845 ( 2018 ) 2017 【c1】 阿马尔·兰尼·特里基 , 拉哈夫·阿尔朱迪 , 马修·布拉施科 , Tinne Tuytelaars公司 :
基于编码器的终身学习。 ICCV公司 2017 : 1329-1337 [i3] 阿马尔·兰尼·特里基 , 拉哈夫·阿尔朱迪 , 马修·布拉施科 , Tinne Tuytelaars公司 :
基于编码器的终身学习。 CoRR公司 abs/1704.01920 ( 2017 ) [i2] Amal Rannen Triki公司 , 马克西姆·伯曼 , 马修·布拉施科 :
随机加权函数范数正则化。 CoRR公司 腹肌/1710.06703 ( 2017 ) 2016 [i1] 阿马尔·兰尼·特里基 , 马修·布拉施科 :
深网络的随机函数范数正则化。 CoRR公司 abs/1605.09085 ( 2016 )