基于用户反馈的个性化优化

@文章{Simoneto2019PersonalizedOW,title={使用用户反馈进行个性化优化},作者={Andrea Simonetto和Emiliano Dall'Anese以及Julien Monteil和Andrey Bernstein},日志={Autom.},年份={2019},体积={131},页数={109767},url={https://api.semanticscholar.org/CorpusID:143422962}}

本文中的数字

具有人类偏好的网络系统的时变优化

一种基于原始-对偶方法的分布式在线优化算法,该算法以闭环方式有效发挥作用,以最小化与个人偏好相关的成本函数,这些个人偏好受到捕获网络物理或操作限制的时变约束。

通过形状约束的在线学习实现个性化需求响应

开发了一种基于反馈的投影梯度法,以在线方式解决需求响应问题,利用用户的反馈,在执行算法的同时学习未知函数。

基于数据的网络系统少反馈在线优化

结果表明,在线算法从问题的最优解中生成了误差在有界范围内的点;特别是,在线算法提供了期望误差界和高概率误差界,当梯度误差服从亚威布尔分布时,给出了后者。

一种基于学习的分布式个性化聚合优化算法

证明了动态后悔的上界与(i)初始条件,(ii)目标函数的时间变化,以及(iii)不影响算法渐近性能的学习误差有关。

基于凸参数模型的分布式个性化梯度跟踪

一种分布式优化算法,用于解决计算和通信节点网络上的在线个性化优化问题,每个节点都链接到特定用户,在适当的假设下表现出有限的遗憾。

具有次威布尔梯度误差和间歇更新的反馈优化

这封信考虑了一种基于反馈的投影梯度方法,用于优化被建模为代数映射的系统,其中梯度被遵循亚威布尔分布的随机误差破坏,并且在每次迭代时输出的测量可能不可用。

GTAdam:用于分布式在线优化的自适应动量梯度跟踪

带有自适应动量估计(GTAdam)分布式算法的梯度跟踪,该算法将梯度跟踪机制与梯度的一阶和二阶动量估计相结合,其性能优于最先进的分布式优化方法。

具有次威布尔误差的优化学习随机算子框架

研究随机优化和学习算法收敛性的框架,针对这些算法提出的不同挑战进行建模,并通过为当前迭代与优化或学习问题的解决方案之间的距离提供边界,以平均值和高概率得出收敛结果。

基于自适应动量梯度跟踪的分布式在线优化

自适应动量估计梯度跟踪(GTAdam)分布式算法,将梯度跟踪机制与梯度的一阶和二阶动量估计相结合,证明了平均动态遗憾是有界的,并且收敛速度是线性的。

带时变约束和Bandit反馈的在线凸优化

结果表明,只要基准序列的漂移是次线性的,或者说,潜在的动态优化问题变化不太剧烈,该算法对动态基准序列和次线性约束冲突都具有次线性遗憾。

时变凸优化的带测量反馈的在线原对偶方法

本文讨论了基于反馈的在线算法的设计和分析,用于基于性能目标和可能演变的工程约束的控制系统或网络系统

动态环境中基于镜像下降的分布式在线优化

提出了一种著名的镜像下降算法的分散变量,根据该算法,代理执行一致性步骤来跟踪全局函数并考虑全局极小值的动态性,以解决非平稳环境中的分散在线优化问题。

信息流优化和学习:时间变换算法和应用

本文重点介绍可处理时变或在线一阶优化方法的特殊类型的在线算法,重点介绍机器学习、信号处理以及数据驱动控制。

非平稳随机优化

极小极大后悔的严格界限使我们能够量化“非国家性的代价”,它从数学上捕捉了嵌入在时间变化环境与静止环境中的额外复杂性。

非精确近似在线梯度下降算法在线学习

用于跟踪由可微损失函数和不可微正则化子组成的复合目标函数的最优解的近端在线梯度下降(OGD)算法被推广用于损失函数具有有限和结构的大规模问题。

Bandit环境下高斯过程优化的信息论回归界

本文分析了一种直观的高斯过程上界算法,并根据最大信息增益约束其累积遗憾,建立了GP优化与实验设计之间的新联系,并获得了许多常用协方差函数的显式次线性遗憾界。

通过反向强化学习进行学徒学习

本工作将专家视为试图最大化可表示为已知特征线性组合的奖励函数,并基于使用“反向强化学习”尝试恢复未知奖励函数,给出了一种学习专家演示任务的算法。

时变凸优化的预测校正内点法

一种求解一类具有时变目标和约束函数的凸优化问题的内点方法,确保该动力系统的解以指数速率全局渐近收敛到最优解。

用于可扩展和动态物联网管理的Bandit凸优化

雾计算卸载任务中的数值测试证实,与基于梯度反馈的现有方法相比,拟议的BanSaP方法具有竞争力。
...