使用精细离散化改进自适应在线学习
Zhiyu Zhang、Heng Yang、Ashok Cutkosky、Ioannis C Paschalidis
第35届算法学习理论国际会议论文集,PMLR 237:1208-1232024年。
摘要
我们研究了带Lipschitz损失的无约束在线线性优化问题。目标是同时实现(i)二阶梯度自适应;以及(ii)比较器范数自适应性,在文献中也称为“参数自由度”。现有后悔界限(Cutkosky和Orabona,2018;Mhammedi和Koolen,2020;Jacobsen和Cutkosky,2022)对梯度方差$V_T$具有次优$O(\sqrt{V_T\log V_T})$依赖性,而本研究使用一种新的连续时间激励算法将其改进为最优速率$O(\sqrt{V-T}),没有任何不切实际的加倍技巧。这一结果可以扩展到具有未知Lipschitz常数的设置,消除了先前工作中的射程比问题(Mhammedi和Koolen,2020)。具体地说,我们首先证明,在用任意连续半鞅建模环境的情况下,在问题的连续时间模拟中,可以很容易地实现目标的同时自适应性。然后,我们的关键创新是一个新的离散化论证,它在离散时间对抗环境中保持了这种适应性。这从算法和分析两方面细化了(Harvey et al.,2023)中的非梯度自适应离散化参数,这可能会引起独立的兴趣。
引用本文
相关材料