阿肖克·卡特科斯基
人员信息
优化列表
![笔记](https://dblp.uni-trier.de/img/note-mark.dark.12x12.png)
2020年–今天
2024 [公元44年] 张志宇(Zhiyu Zhang) , 衡阳 , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
使用精细离散化改进自适应在线学习。 另类 2024 : 1208-1233 [i42] 秦子璋 , 阿肖克·卡特科斯基 :
非光滑非凸优化的随机标度和动量。 CoRR公司 abs/2405.09742 ( 2024 ) 2023 [j3] 哈什·梅塔 , 瓦利德·克里钦 , 阿卜拉德普·古哈·塔库塔 , 阿列克谢·库拉金 , 阿肖克·卡特科斯基 :
不同于特征的私有图像分类。 事务处理。 机器。 学习。 物件。 2023 ( 2023 ) [j2] 哈什·梅塔 , 阿卜拉德普·古哈·塔库塔 , 阿列克谢·库拉金 , 阿肖克·卡特科斯基 :
面向不同私有图像分类的大规模迁移学习。 事务处理。 机器。 学习。 物件。 2023 ( 2023 ) [公元43年] 哈什·梅塔 , 安吉特·古普塔 , 阿肖克·卡特科斯基 , 贝纳姆·尼沙布尔 :
通过门控状态空间进行远程语言建模。 ICLR公司 2023 [公元42年] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
带提示和查询的Bandit在线线性优化。 ICML公司 2023 : 2313-2336 [公元41年] 阿肖克·卡特科斯基 , 哈什·梅塔 , 弗朗西斯科·奥拉博纳 :
通过在线到非凸变换的最优随机非光滑非凸优化。 ICML公司 2023 : 6643-6670 [公元40年] 安德鲁·雅各布森 , 阿肖克·卡特科斯基 :
无约束在线学习,损失无限。 ICML公司 2023 : 14590-14630 [c39] 沃尔坎·塞弗尔 , 阿肖克·卡特科斯基 , 阿里·卡维斯 , 乔治·皮里奥拉斯 , 斯特拉斯·斯科拉基斯 , 卢卡·维亚诺 :
在两层游戏中,交替使对手变得更弱。 NeurIPS公司 2023 [公元38年] 阿肖克·卡特科斯基 , 亚伦·德法齐奥 , 哈什·梅塔 :
机修工:一个学习速度调谐器。 NeurIPS公司 2023 [公元37年] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , 亚尼斯·帕沙利迪斯 :
通过稀疏编码的无约束动态回归。 NeurIPS公司 2023 [公元36年] 阿肖克·卡特科斯基 , Abhimanyu Das公司 , 孔伟浩 , Chansoo Lee(李香洙) , 拉贾特·森 :
单峰函数的黑箱优化。 阿拉伯联合酋长国 2023 : 476-484 [i41] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
通过稀疏编码的无约束动态回归。 CoRR公司 abs/2301.13349 ( 2023 ) [i40] 阿肖克·卡特科斯基 , 哈什·梅塔 , 弗朗西斯科·奥拉博纳 :
通过在线到非凸变换的最优随机非光滑非凸优化。 CoRR公司 abs/2302.03775 ( 2023 ) [i39] 阿肖克·卡特科斯基 , 亚伦·德法齐奥 , 哈什·梅塔 :
机修工:一个学习速度调谐器。 CoRR公司 abs/2306.00144 ( 2023 ) [i38] 安德鲁·雅各布森 , 阿肖克·卡特科斯基 :
无约束在线学习,损失无限。 CoRR公司 abs/2306.04923 ( 2023 ) [i37] 张志宇(Zhiyu Zhang) , 衡阳 , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
使用精细离散化改进自适应在线学习。 CoRR公司 abs/2309.16044 ( 2023 ) [公元36年] 亚伦·德法齐奥 , 阿肖克·卡特科斯基 , 哈什·梅塔 , 康斯坦丁·米什琴科 :
何时、为什么和多少钱? 改进的自适应学习速率调度。 CoRR公司 abs/2310.07831 ( 2023 ) 2022 [j1] 庄振勋 , 刘明瑞 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
通过近似方法和无标度性理解AdamW。 事务处理。 机器。 学习。 物件。 2022 ( 2022 ) [公元35年] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
通过带记忆的强自适应在线学习实现对手跟踪控制。 AISTATS公司 2022 : 8458-8492 [公元34年] 陈可怡 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
基于截断线性模型的隐式无参数在线学习。 另类 2022 : 148-175 [公元33年] 阿肖克·卡特科斯基 , 克里斯托夫·丹恩 , Abhimanyu Das公司 , 张秋怡(Richard) :
利用随机线性盗贼中的免费初始提示。 另类 2022 : 282-318 [公元32年] 安德鲁·雅各布森 , 阿肖克·卡特科斯基 :
无参数镜像下降。 COLT公司 2022 : 4160-4211 [公元31年] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
基于PDE的无约束在线学习优化策略。 ICML公司 2022 : 26085-26115 [公元30年] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , 亚尼斯·帕沙利迪斯 :
具有切换成本的最优比较器自适应在线学习。 NeurIPS公司 2022 [公元29年] Hoang Tran公司 , 阿肖克·卡特科斯基 :
使用二阶动量获得更好的SGD。 NeurIPS公司 2022 [公元28年] Hoang Tran公司 , 阿肖克·卡特科斯基 :
私人非经常性企业风险管理的动量聚合。 NeurIPS公司 2022 [公元27年] 张久佳 , 阿肖克·卡特科斯基 :
重尾高概率无参数后悔。 NeurIPS公司 2022 [公元26年] 秦子璋 , Hoang Tran公司 , 阿肖克·卡特科斯基 :
不同的私有在线到批量以实现平稳损失。 NeurIPS公司 2022 [i35] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
基于PDE的无约束在线学习优化策略。 CoRR公司 abs/2201.07877 ( 2022 ) [i34] 庄振勋 , 刘明瑞 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
通过近似方法和无标度性理解AdamW。 CoRR公司 abs/2202.00089 ( 2022 ) [i33] 安德鲁·雅各布森 , 阿肖克·卡特科斯基 :
无参数镜像下降。 CoRR公司 abs/2203.00444 ( 2022 ) [i32] 阿肖克·卡特科斯基 , 克里斯托夫·丹恩 , Abhimanyu Das公司 , 张秋怡(Richard) :
利用随机线性盗贼中的免费初始提示。 CoRR公司 abs/2203.04274 ( 2022 ) [i31] 陈可怡 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
基于截断线性模型的隐式无参数在线学习。 CoRR公司 abs/2203.10327 ( 2022 ) [i30] 哈什·梅塔 , 阿卜拉德普·塔库塔 , 阿列克谢·库拉金 , 阿肖克·卡特科斯基 :
用于不同私有图像分类的大规模迁移学习。 CoRR公司 abs/2205.02973 ( 2022 ) [i29] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
具有切换成本的最优无参数在线学习。 CoRR公司 abs/2205.06846 ( 2022 ) [i28] 哈什·梅塔 , 安吉特·古普塔 , 阿肖克·卡特科斯基 , 贝纳姆·尼沙布尔 :
通过门控状态空间进行远程语言建模。 CoRR公司 abs/2206.13947 ( 2022 ) [i27] Hoang Tran公司 , 阿肖克·卡特科斯基 :
私人非经常性企业风险管理的动量聚合。 CoRR公司 abs/2210.06328 ( 2022 ) [i26] 秦子璋 , Hoang Tran公司 , 阿肖克·卡特科斯基 :
不同的私有在线批量以实现平稳损失。 CoRR公司 abs/2210.06593 ( 2022 ) [i25] 张久佳 , 阿肖克·卡特科斯基 :
重尾高概率无参数后悔。 CoRR公司 abs/2210.14355 ( 2022 ) 【i24】 哈什·梅塔 , 瓦利德·克里钦 , 阿卜拉德普·塔库塔 , 阿列克谢·库拉金 , 阿肖克·卡特科斯基 :
不同于特征的私有图像分类。 CoRR公司 腹肌/2211.13403 ( 2022 ) 2021 [公元25年] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
移动成本在线学习提示的力量。 AISTATS公司 2021 : 2818-2826 [公元24年] 哈什·梅塔 , 阿肖克·卡特科斯基 , 贝纳姆·尼沙布尔 :
通过初始化规模实现极端记忆。 ICLR公司 2021 [c23] 阿亚·阿利耶娃 , 阿肖克·卡特科斯基 , Abhimanyu Das公司 :
预算有限的线性强盗中的稳健纯粹探索。 ICML公司 2021 : 187-195 [公元22年] 阿肖克·卡特科斯基 , 克里斯托夫·丹恩 , Abhimanyu Das公司 , 克劳迪奥·詹蒂莱 , 阿尔多·帕奇亚诺 , Manish Purohit公司 :
Bandits和RL中模型选择的动态平衡。 ICML公司 2021 : 2276-2285 【c21】 阿肖克·卡特科斯基 , 哈什·梅塔 :
具有重尾的非凸随机优化的高概率界。 NeurIPS公司 2021 : 4883-4895 [公元20年] 阿迪蒂亚·甘拉德 , 阿尼尔·卡格 , 阿肖克·卡特科斯基 , 文卡特斯·萨利格拉马 :
反馈有限的在线选择性分类。 NeurIPS公司 2021 : 14529-14541年 [第19条] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
次线性提示的对数遗憾。 NeurIPS公司 2021 : 28222-28232 [第23条] 张志宇(Zhiyu Zhang) , 阿肖克·卡特科斯基 , Ioannis Ch.Paschalidis公司 :
带内存的强自适应OCO。 CoRR公司 abs/2102.01623 ( 2021 ) [i22] Hoang Tran公司 , 阿肖克·卡特科斯基 :
用二阶信息校正动量。 CoRR公司 abs/2103.03265 ( 2021 ) 【i21】 阿肖克·卡特科斯基 , 哈什·梅塔 :
具有重尾的非凸随机优化的高概率界。 CoRR公司 abs/2106.14343 ( 2021 ) [i20] 阿迪蒂亚·甘拉德 , 阿尼尔·卡格 , 阿肖克·卡特科斯基 , 文卡特斯·萨利格拉马 :
反馈有限的在线选择性分类。 CoRR公司 abs/2110.14243 ( 2021 ) [i19] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
次线性提示的对数遗憾。 CoRR公司 abs/2111.05257 ( 2021 ) 2020 [第18条] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
不完善提示的在线学习。 ICML公司 2020 : 822-831 [第17条] 阿肖克·卡特科斯基 :
无参数、动态和强适应性在线学习。 ICML公司 2020 : 2250-2259 [第16条] 阿肖克·卡特科斯基 , 哈什·梅塔 :
动量改善标准SGD。 ICML公司 2020 : 2260-2268 [第15条] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
具有许多提示的在线线性优化。 NeurIPS公司 2020 [第14条] 阿肖克·卡特科斯基 :
通过无参数在线学习实现更好的全矩阵后悔。 NeurIPS公司 2020 [第13条] 德克·范德霍温 , 阿肖克·卡特科斯基 , 罗海鹏 :
比较器-自适应凸带。 NeurIPS公司 2020 [i18] 阿肖克·卡特科斯基 , 哈什·梅塔 :
动量改善标准SGD。 CoRR公司 abs/2002.03305 ( 2020 ) [i17] 阿肖克·卡特科斯基 :
不同规范的自适应在线学习。 CoRR公司 abs/2002.03963 ( 2020 ) [i16] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
不完善提示的在线学习。 CoRR公司 abs/2002.04726 ( 2020 ) [i15] 德克·范德霍温 , 阿肖克·卡特科斯基 , 罗海鹏 :
比较器自适应凸带。 CoRR公司 abs/2007.08448 ( 2020 ) [第14条] 哈什·梅塔 , 阿肖克·卡特科斯基 , 贝纳姆·尼沙布尔 :
通过初始化规模实现极端记忆。 CoRR公司 abs/2008.13363 ( 2020 ) [i13] 阿迪蒂亚·巴斯卡拉 , 阿肖克·卡特科斯基 , 拉维库玛 , Manish Purohit公司 :
具有许多提示的在线线性优化。 CoRR公司 腹肌/2010.03082 ( 2020 ) [i12] 阿肖克·卡特科斯基 , Abhimanyu Das公司 , Manish Purohit公司 :
组合随机强盗的置信上限。 CoRR公司 abs/2012.13115 ( 2020 )
2010 – 2019
2019 [第12条] 阿肖克·卡特科斯基 :
无边界在线学习的人工约束和提示。 COLT公司 2019 : 874-894 [第11条] 阿肖克·卡特科斯基 :
结合在线学习保障。 COLT公司 2019 : 895-913年 [第10条] 阿肖克·卡特科斯基 :
随时在线批量、乐观和加速。 ICML公司 2019 : 1446年-1454年 【c9】 阿肖克·卡特科斯基 , 塔马斯·萨洛斯 :
在线学习中的无矩阵预处理。 ICML公司 2019 : 1455-1464 【c8】 庄振勋 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
随机非凸优化中步长在线学习的替代损失。 ICML公司 2019 : 7664-7672 【c7】 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
非凸SGD中基于动量的方差减少。 NeurIPS公司 2019 : 15210-15219 【c6】 光成俊 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
核截断随机岭回归:最优速率和低噪声加速。 NeurIPS公司 2019 : 15332-15341 [i11] 庄振勋 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
随机非凸优化中步长在线学习的替代损失。 CoRR公司 abs/1901.09068 ( 2019 ) [i10] 阿肖克·卡特科斯基 :
结合在线学习保障。 CoRR公司 abs/1902.09003 ( 2019 ) [第九章] 阿肖克·卡特科斯基 :
无约束在线学习的人工约束和Lipschitz提示。 CoRR公司 abs/1902.09013 ( 2019 ) [i8] 阿肖克·卡特科斯基 :
随时在线批量转换、乐观主义和加速。 CoRR公司 abs/1903.00974 ( 2019 ) [i7] 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
非凸SGD中基于动量的方差减少。 CoRR公司 abs/1905.10018 ( 2019 ) [i6] 光成俊 , 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
核截断随机岭回归:最优速率和低噪声加速。 CoRR公司 abs/1905.10680 ( 2019 ) [i5] 阿肖克·卡特科斯基 , 塔马斯·萨洛斯 :
在线学习中的无矩阵预处理。 CoRR公司 abs/1905.12721 ( 2019 ) 2018 【b1】 阿肖克·卡特科斯基 :
无参数在线学习的算法和下限。 美国斯坦福大学, 2018 【c5】 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
Banach空间中无参数在线学习的黑盒简化。 COLT公司 2018 : 1493-1529 【c4】 阿肖克·卡特科斯基 , 罗贝特·布萨·费科特 :
基于自适应SGD的分布式随机优化。 NeurIPS公司 2018 : 1914-1923 [i4] 阿肖克·卡特科斯基 , 罗贝特·布萨·费科特 :
基于自适应随机梯度下降的分布式随机优化。 CoRR公司 abs/1802.05811 ( 2018 ) [i3] 阿肖克·卡特科斯基 , 弗朗西斯科·奥拉博纳 :
Banach空间中无参数在线学习的黑盒简化。 CoRR公司 abs/1802.06293 ( 2018 ) 2017 【c3】 阿肖克·卡特科斯基 , 夸贝纳博阿亨 :
无事先信息的在线学习。 COLT公司 2017 : 643-677 【c2】 阿肖克·卡特科斯基 , 夸贝纳博阿亨 :
无超参数的随机和对抗性在线学习。 NIPS公司 2017 : 5059-5067 [i2] 阿肖克·卡特科斯基 , 夸贝纳博阿亨 :
具有无约束区域和损失的在线凸优化。 CoRR公司 abs/1703.02622 ( 2017 ) [i1] 阿肖克·卡特科斯基 , 夸贝纳博阿亨 :
无事先信息的在线学习。 CoRR公司 abs/1703.02629 ( 2017 ) 2016 【c1】 阿肖克·卡特科斯基 , 夸贝纳博阿亨 :
具有无约束区域和损失的在线凸优化。 NIPS公司 2016 : 748-756
合著者索引
![](https://dblp.uni-trier.de/img/cog.dark.24x24.png)