尼基塔·普奇金
人员信息
优化列表
![笔记](https://dblp.org/img/note-mark.dark.12x12.png)
2020年–今天
2024 【c4】 尼基塔·普奇金 , 爱德华·戈尔布诺夫 , 尼古拉·库图佐夫 , 亚历山大·加斯尼科夫 :
打破随机优化问题中的重尾噪声屏障。 AISTATS公司 2024 : 856-864 2023 [j3] 丹尼斯·贝洛梅斯特尼 , 阿列克谢·诺莫夫 , 尼基塔·普奇金 , 谢尔盖·萨姆索诺夫 :
用分段多项式激活的深度神经网络同时逼近光滑函数及其导数。 神经网络 161 : 242-253 ( 2023 ) 【c3】 尼基塔·普奇金 , 瓦莱里娅·谢尔巴科娃 :
一种在线变化点检测的对比方法。 AISTATS公司 2023 : 5686-5713 [c2] 尼基塔·普奇金 , 尼基塔·日沃托夫斯基 :
探索外压缩统计学习中的地方规范。 COLT公司 2023 : 1993-2013 [i6] 尼基塔·普奇金 , 尼基塔·日沃托夫斯基 :
探索外压缩统计学习中的地方规范。 CoRR公司 abs/2302.10726 ( 2023 ) [i5] 尼基塔·普奇金 , 爱德华·戈尔布诺夫 , 尼古拉·库图佐夫 , 亚历山大·加斯尼科夫 :
打破随机优化问题中的重尾噪声屏障。 CoRR公司 abs/2311.04161 ( 2023 ) 2022 [注2] 尼基塔·普奇金 , 弗拉基米尔·斯波科尼 :
结构自适应流形估计。 J.马赫。 学习。 物件。 23 : 40:1-40:62 ( 2022 ) [j1] 尼基塔·普奇金 , 尼基塔·日沃托夫斯基 :
通过弃权实现不可知主动学习的指数节约。 IEEE传输。 Inf.理论 68 ( 7 ) : 4651-4665 ( 2022 ) [i4] 丹尼斯·贝洛梅斯特尼 , 阿列克谢·诺莫夫 , 尼基塔·普奇金 , 谢尔盖·萨姆索诺夫 :
用分段多项式激活的深度神经网络同时逼近光滑函数及其导数。 CoRR公司 abs/2206.09527 ( 2022 ) [i3] 尼基塔·普奇金 , 瓦莱丽娅·什切尔巴科娃 :
在线变化点检测的对比方法。 CoRR公司 腹肌/2206.10143 ( 2022 ) 2021 【c1】 尼基塔·普奇金 , 尼基塔·日沃托夫斯基 :
通过弃权在不可知论的主动学习中节省了指数。 COLT公司 2021 : 3806-3832 [i2] 尼基塔·普奇金 , 尼基塔·日沃托夫斯基 :
通过弃权实现不可知主动学习的指数节约。 CoRR公司 abs/2102.00451 ( 2021 )
2010 – 2019
2018 [i1] 尼基塔·普奇金 , 弗拉基米尔·斯波科尼 :
通过多类分类局部估计的分段聚合进行逐点自适应。 CoRR公司 abs/1804.02756 ( 2018 )
![](https://dblp.org/img/cog.dark.24x24.png)