马克·赫伯斯特;曼弗雷德·沃穆特。 追踪最佳专家。 (英语) 兹比尔0912.68165 机器。学习。 32,第2期,151-178(1998). 总结:我们推广了在线算法的最近相对损失界,其中算法在整个示例序列上的额外损失超过最佳专家的损失是有界的。泛化允许将序列划分为多个片段,目标是将算法的额外损失限制在每个片段中最佳专家的损失总和之上。这是为了模拟示例发生变化的情况,不同的专家最适合示例序列的某些部分。在单段情况下,额外损失与\(\log n\)成比例,其中\(n\)是专家数量,比例常数取决于损失函数。我们的算法不能产生最佳分割;然而,损失边界表明,我们的预测接近于最佳分割的预测。当分段数为\(k+1)且序列长度为\(\ell\)时,我们可以通过\(O(k\log n+k\ log(\ell/k))\来限定我们算法在最佳分区上的额外损失。对于每次试验的损失有界的情况,我们得到了一个算法,其最佳分割损失的附加损失与序列的长度无关。额外的损失变为\(O(k\log n+k\log(L/k)),其中\(L\)是具有\(k+1\)段的最佳分区的损失。我们用于跟踪最佳专家预测的算法是对Vovk原始算法的简单改编,用于单个最佳专家案例。与原始算法一样,我们为每个专家保留一个权重,并在每次试验中为每个权重花费(O(1))时间。 引用于1审查引用于31文件 MSC公司: 68T05型 人工智能中的学习和自适应系统 关键词:移位;最佳专家 PDF格式BibTeX公司 XML格式引用 \textit{M.Herbster}和\textit{M.K.Warmuth},马赫。学习。32,第2号,151--178(1998;Zbl 0912.68165) 全文: 内政部