使用精细离散化改进自适应在线学习

Zhiyu Zhang、Heng Yang、Ashok Cutkosky、Ioannis C Paschalidis
第35届算法学习理论国际会议论文集,PMLR 237:1208-1232024年。

摘要

我们研究了带Lipschitz损失的无约束在线线性优化问题。目标是同时实现(i)二阶梯度自适应;以及(ii)比较器范数自适应性,在文献中也称为“参数自由度”。现有后悔界限(Cutkosky和Orabona,2018;Mhammedi和Koolen,2020;Jacobsen和Cutkosky,2022)对梯度方差$V_T$具有次优$O(\sqrt{V_T\log V_T})$依赖性,而本研究使用一种新的连续时间激励算法将其改进为最优速率$O(\sqrt{V-T}),没有任何不切实际的加倍技巧。这一结果可以扩展到具有未知Lipschitz常数的设置,消除了先前工作中的射程比问题(Mhammedi和Koolen,2020)。具体地说,我们首先证明,在用任意连续半鞅建模环境的情况下,在问题的连续时间模拟中,可以很容易地实现目标的同时自适应性。然后,我们的关键创新是一个新的离散化论证,它在离散时间对抗环境中保持了这种适应性。这从算法和分析两方面细化了(Harvey et al.,2023)中的非梯度自适应离散化参数,这可能会引起独立的兴趣。

引用本文


BibTeX公司
@会议记录{pmlr-v237-zhang24a,title={使用精细离散化改进自适应在线学习},author={张、志余和杨、亨和卡特科斯基、阿肖克和帕沙利迪斯、约安尼斯C},booktitle={第35届算法学习理论国际会议论文集},页数={1208--1233},年份={2024},editor={Vernade,Claire和Hsu,Daniel},体积={237},series={机器学习研究论文集},月={2月25日--28日},publisher={PMLR},pdf={https://proceedings.mlr.press/v237/zhang24a/zhang24a.pdf},url={https://proceedings.mlr.press/v237/zhang24a.html},abstract={我们研究了带Lipschitz损失的无约束在线线性优化问题。目标是同时实现(i)二阶梯度自适应性;和(ii)文献中称为“参数自由”的比较器范数自适应性。现有遗憾界(Cutkosky和Orabona,2018;Mhammedi和Koolen,2020;Jacobsen和Cutkosky,2022)对梯度方差$V_T$具有次优$O(\sqrt{V_T\log V_T})$依赖性,而本工作使用新的连续时间激励算法将其改进为最优速率$O(\sqrt{V_T{)$,没有任何不切实际的加倍技巧。这一结果可以推广到未知Lipschitz常数的设置,消除了先前工作中的射程比问题(Mhammedi和Koolen,2020)。具体地说,我们首先证明,在用任意连续半鞅建模环境的情况下,在问题的连续时间模拟中,可以很容易地实现目标的同时自适应性。然后,我们的关键创新是一个新的离散化论证,它在离散时间对抗环境中保持了这种适应性。这从算法和分析两方面细化了(Harvey et al.,2023)中的非梯度自适应离散化参数,这可能会引起独立的兴趣。}}
尾注
%0会议论文%使用精细离散化改进自适应在线学习%张志宇%A衡阳%阿肖克·卡特科斯基%A Ioannis C帕斯卡利迪斯%第35届算法学习理论国际会议论文集%C机器学习研究进展%D 2024年%E克莱尔·沃纳德%E丹尼尔·徐%F pmlr-v237-zhang24a公司%I项目经理%电话:1208--1233%U型https://proceedings.mlr.press/v237/zhang24a.html%伏237%我们研究了具有Lipschitz损失的无约束在线线性优化问题。目标是同时实现(i)二阶梯度自适应;以及(ii)比较器范数自适应性,在文献中也称为“参数自由度”。现有后悔界限(Cutkosky和Orabona,2018;Mhammedi和Koolen,2020;Jacobsen和Cutkosky,2022)对梯度方差$V_T$具有次优$O(\sqrt{V_T\log V_T})$依赖性,而本研究使用一种新的连续时间激励算法将其改进为最优速率$O(\sqrt{V-T}),没有任何不切实际的加倍技巧。这一结果可以推广到未知Lipschitz常数的设置,消除了先前工作中的射程比问题(Mhammedi和Koolen,2020)。具体地说,我们首先证明,在用任意连续半鞅建模环境的情况下,在问题的连续时间模拟中,可以很容易地实现目标的同时自适应性。然后,我们的关键创新是一个新的离散化论证,它在离散时间对抗环境中保持了这种适应性。这从算法和分析两方面细化了(Harvey et al.,2023)中的非梯度自适应离散化参数,这可能会引起独立的兴趣。
亚太地区
Zhang,Yang,H.,Cutkosky,A.和Paschalidis,I.C.(2024)。使用精细离散化改进自适应在线学习。第35届算法学习理论国际会议论文集,英寸机器学习研究进展237:1208-1233可从https://proceedings.mlr.press/v237/zhang24a.html。

相关材料