蒂姆·范·埃尔文
人员信息
附属: 南巴黎大学数学系
优化列表
![笔记](https://dblp.uni-trier.de/img/note-mark.dark.12x12.png)
2020年–今天
2024 [公元25年] 希德·福克马 , 达米恩·加罗 , 蒂姆·范·埃尔文 :
二元分类中的追索风险。 AISTATS公司 2024 : 550-558 2023 [公元24年] 莎拉·萨克斯 , 蒂姆·范·埃尔文 , 利亚姆·霍奇金森 , 拉吉夫·坎纳 , 乌穆特·西姆塞克利 :
通过依赖于算法的Rademacher复杂性实现泛化保证。 COLT公司 2023 : 4863-4880 【c23】 鲁伊·M·卡斯特罗 , 弗雷德里克·赫尔斯特罗姆 , 蒂姆·范·埃尔文 :
专家在线预测的自适应选择性采样。 NeurIPS公司 2023 [公元22年] 赫迪·哈迪吉 , 莎拉·萨克斯 , 蒂姆·范·埃尔文 , 沃特·科伦 :
零和矩阵游戏中学习(近似)纳什均衡的一阶查询复杂性特征。 NeurIPS公司 2023 【c21】 朱莉娅·奥尔霍夫斯卡娅 , 杰克·梅奥 , 蒂姆·范·埃尔文 , Gergely Neu公司 , 陈玉伟 :
对抗性线性上下文强盗的一级和二级界限。 NeurIPS公司 2023 [i27] 鲁伊·M·卡斯特罗 , 弗雷德里克·赫尔斯特罗姆 , 蒂姆·范·埃文 :
专家在线预测的自适应选择性采样。 CoRR公司 abs/2302.08397 ( 2023 ) [i26] 莎拉·萨克斯 , 赫迪·哈迪吉 , 蒂姆·范·埃尔文 , 克里斯托巴尔·古兹曼 :
随机和对抗在线凸优化之间的加速率。 CoRR公司 腹肌/2303.03272 ( 2023 ) [i25] 赫迪·哈迪吉 , 莎拉·萨克斯 , 蒂姆·范·埃尔文 , 沃特·科伦 :
零和矩阵游戏中学习(近似)纳什均衡的一阶查询复杂性特征。 CoRR公司 abs/2304.12768 ( 2023 ) 【i24】 朱莉娅·奥尔霍夫斯卡娅 , 杰克·梅奥 , 蒂姆·范·埃尔文 , Gergely Neu公司 , 陈玉伟 :
对抗性线性上下文强盗的一级和二级界限。 CoRR公司 abs/2305.00832 ( 2023 ) [第23条] 希德·福克马 , 达米安·加罗 , 蒂姆·范·埃尔文 :
二元分类中的追索风险。 CoRR公司 abs/2306.00497 ( 2023 ) [i22] 莎拉·萨克斯 , 蒂姆·范·埃尔文 , 利亚姆·霍奇金森 , 拉吉夫·坎纳 , 乌穆特·西姆塞克利 :
通过依赖于算法的Rademacher复杂性实现泛化保证。 CoRR公司 abs/2307.02501 ( 2023 ) 2022 [公元20年] 德克·范德霍温 , 赫迪·哈迪吉 , 蒂姆·范·埃文 :
分布式在线学习与沟通约束联合后悔。 中高音 2022 : 1003-1042 [第19条] 杰克·梅奥 , 赫迪·哈迪吉 , 蒂姆·范·埃尔文 :
曲线损失的无标度无约束在线学习。 COLT公司 2022 : 4464-4497 [第18条] 莎拉·萨克斯 , 赫迪·哈迪吉 , 蒂姆·范·埃尔文 , 克里斯托巴尔·古兹曼 :
在随机和对抗在线凸优化之间:通过平滑度改进后悔界限。 NeurIPS公司 2022 【i21】 杰克·梅奥 , 赫迪·哈迪吉 , 蒂姆·范·埃尔文 :
曲线损失的无标度无约束在线学习。 CoRR公司 abs/2202.05630 ( 2022 ) [i20] 莎拉·萨克斯 , 赫迪·哈迪吉 , 蒂姆·范·埃文 , 克里斯托巴尔·古兹曼 :
在随机和对抗在线凸优化之间:通过平滑度改进后悔界限。 CoRR公司 abs/2202.07554 ( 2022 ) [i19] 希德·福克马 , 瑞安·德·海德 , 蒂姆·范·埃尔文 :
提供资源的基于归因的解释不能稳健。 CoRR公司 abs/2205.15834 ( 2022 ) [i18] Thom Neuteboom公司 , 蒂姆·范·埃尔文 :
在不断变化的环境中,使用专家建议修改斜视以进行预测。 CoRR公司 abs/2209.06826 ( 2022 ) 2021 [j5] 蒂姆·范·埃文 , 沃特·科伦 , 德克·范德霍温 :
MetaGrad:在线学习中使用多种学习率进行适应。 J.马赫。 学习。 物件。 22 : 161:1-161:61 ( 2021 ) [第17条] 蒂姆·范·埃尔文 , 莎拉·萨克斯 , 沃特·库伦 , 沃伊西奇·科特洛夫斯基 :
存在异常值时的鲁棒在线凸优化。 COLT公司 2021 : 4174-4194 [i17] 蒂姆·范·埃尔文 , 沃特·科伦 , 德克·范德霍温 :
MetaGrad:在线学习中使用多种学习率进行适应。 CoRR公司 abs/2102.06622 ( 2021 ) [i16] 德克·范德霍温 , 赫迪·哈迪吉 , 蒂姆·范·埃尔文 :
用于具有通信约束的联合回归的分布式在线学习。 CoRR公司 abs/2102.07521 ( 2021 ) 【i15】 蒂姆·范·埃尔文 , 莎拉·萨克斯 , 沃特·科伦 , 沃伊西奇·科特洛夫斯基 :
存在异常值时的鲁棒在线凸优化。 CoRR公司 abs/2107.01881 ( 2021 ) 2020 [第16条] 蒂姆·范·埃尔文 , 德克·范德霍温 , 沃伊西奇·科特洛夫斯基 , 沃特·科伦 :
开放问题:快速优化在线投资组合选择。 COLT公司 2020 : 3864-3869 [第14条] 乔治·弗拉索普洛斯 , 蒂姆·范·埃尔文 , 亨利·布莱顿 , 弗拉多·门科夫斯基 :
通过近似局部决策边界来解释预测。 CoRR公司 abs/2006.07985 ( 2020 )
2010 – 2019
2019 [第15条] 扎卡里亚·穆罕默德 , 沃特·科伦 , 蒂姆·范·埃文 :
在线学习中具有多重学习率的Lipschitz适应性。 COLT公司 2019 : 2490-2511 [i13] 扎卡里亚·姆哈梅迪 , 沃特·科伦 , 蒂姆·范·埃尔文 :
在线学习中具有多重学习率的Lipschitz适应性。 CoRR公司 abs/1902.10797 ( 2019 ) 2018 [第14条] 德克·范德霍温 , 蒂姆·范·埃尔文 , 沃伊西奇·科特洛夫斯基 :
在线学习中指数权重的多个方面。 COLT公司 2018 : 2067-2092 [i12] 德克·范德霍温 , 蒂姆·范·埃尔文 , 沃伊西奇·科特洛夫斯基 :
在线学习中指数权重的多个方面。 CoRR公司 腹肌/1802.07543 ( 2018 ) 2016 [第13条] 蒂姆·范·埃尔文 , 沃特·库伦 :
MetaGrad:在线学习中的多重学习率。 NIPS公司 2016 : 3666-3674 [第12条] 沃特·库伦 , 彼得·格伦沃尔德 , 蒂姆·范·埃尔文 :
在线学习中结合对手保证和随机快速率。 NIPS公司 2016 : 4457-4465 [i11] 蒂姆·范·埃尔文 , 沃特·科伦 :
MetaGrad:在线学习中的多重学习率。 CoRR公司 abs/1604.08740 ( 2016 ) [i10] 沃特·科伦 , 彼得·格伦沃尔德 , 蒂姆·范·埃尔文 :
在线学习中结合对手保证和随机快速率。 CoRR公司 abs/1605.06439 ( 2016 ) 2015 【j4】 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 尼桑特·梅塔 , 马克·D·里德 , 罗伯特·威廉姆森 :
统计和在线学习速度快。 J.马赫。 学习。 物件。 16 : 1793-1861 ( 2015 ) [第11条] 沃特·科伦 , 蒂姆·范·埃尔文 :
专家和组合博弈的二阶分位数方法。 COLT公司 2015 : 1155-1175 [第九章] 沃特·科伦 , 蒂姆·范·埃尔文 :
专家和组合博弈的二阶分位数方法。 CoRR公司 abs/1502.08009 ( 2015 ) [i8] 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 尼桑特·梅塔 , 马克·D·里德 , 罗伯特·威廉姆森 :
统计和在线学习速度快。 CoRR公司 abs/1507.02592 ( 2015 ) 2014 [j3] 史蒂文·德罗伊 , 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 沃特·库伦 :
如果可以,跟随领队,如果必须,对冲。 J.马赫。 学习。 物件。 15 ( 1 ) : 1281-1316 ( 2014 ) [注2] 蒂姆·范·埃尔文 , 彼得·哈雷莫斯 :
Rényi散度和Kullback-Leibler散度。 IEEE传输。 Inf.理论 60 ( 7 ) : 3797-3820 ( 2014 ) [第10条] 皮埃尔·盖拉德 , 吉尔斯·斯托尔茨 , 蒂姆·范·埃尔文 :
具有超额损失的二阶约束。 COLT公司 2014 : 176-196 【c9】 蒂姆·范·埃尔文 , 沃伊西奇·科特洛夫斯基 :
带着辍学困扰跟随领导者。 COLT公司 2014 : 949-974 【c8】 沃特·科伦 , 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 :
通过专家建议学习预测的学习率。 NIPS公司 2014 : 2294-2302 [i7] 皮埃尔·盖拉德 , 吉尔斯·斯托尔茨 , 蒂姆·范·埃尔文 :
二阶约束与超额损失。 CoRR公司 abs/1402.2044 ( 2014 ) 2013 [i6] 史蒂文·德罗伊 , 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 沃特·科伦 :
如果可以,跟随领导者,如果必须,对冲。 CoRR公司 abs/1301.0534 ( 2013 ) 2012 [j1] 蒂姆·范·埃尔文 , 马克·D·里德 , 罗伯特·威廉姆森 :
混合性是相对于对数损失的贝叶斯风险曲率。 J.马赫。 学习。 物件。 13 : 1639-1663 ( 2012 ) 【c7】 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 马克·D·里德 , 罗伯特·威廉姆森 :
统计学习中的混合性。 NIPS公司 2012 : 1700-1708 [i5] 蒂姆·范·埃尔文 , 彼得·哈雷莫斯 :
Rényi散度和Kullback-Leibler散度。 CoRR公司 abs/1206.2459 ( 2012 ) 2011 【c6】 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 沃特·科伦 , 史蒂文·德罗伊 :
自适应套期保值。 NIPS公司 2011 : 1656-1664 【c5】 蒂姆·范·埃尔文 , 马克·D·里德 , 罗伯特·威廉姆森 :
混合性是相对于对数损失的贝叶斯风险曲率。 COLT公司 2011 : 233-252 2010 【c4】 蒂姆·范·埃尔文 , 彼得·哈雷莫斯 :
雷尼分歧和多数化。 ISIT公司 2010 : 1335-1339 [i4] 蒂姆·范·埃尔文 , 彼得·哈雷莫斯 :
Rényi分歧及其性质。 CoRR公司 abs/1001.4448 ( 2010 ) [i3] 沃特·科伦 , 蒂姆·范·埃尔文 :
使用固定共享在隐马尔可夫模型之间切换。 CoRR公司 abs/1008.4532 ( 2010 ) [i2] 沃特·科伦 , 蒂姆·范·埃尔文 :
冰冻与睡眠:追踪专家通过进化过去的后遗症来学习。 CoRR公司 abs/1008.4654 ( 2010 )
2000 – 2009
2009 【c3】 史蒂文·德罗伊 , 蒂姆·范·埃尔文 :
通过在线离散贝努利资源学习转换率。 AISTATS公司 2009 : 432-439 2008 【c2】 彼得·格伦沃尔德 , 史蒂文·德罗伊 , 蒂姆·范·埃尔文 :
追赶现象。 ITW公司 2008 : 259-260 [i1] 蒂姆·范·埃尔文 , 彼得·格伦沃尔德 , 史蒂文·德罗伊 :
更早切换以更快赶上:AIC-BIC困境的先行解决方案。 CoRR公司 abs/0807.1005 ( 2008 ) 2007 【c1】 蒂姆·范·埃文 , 彼得·格伦沃尔德 , 史蒂文·德罗伊 :
贝叶斯模型选择和模型平均更快赶上。 NIPS公司 2007 : 417-424
合著者索引
![](https://dblp.uni-trier.de/img/cog.dark.24x24.png)