神经计算和统计学习中的许多问题都涉及非负约束的优化。在本文中,我们研究了二次规划中的凸问题,其中优化被限制在非负正值的轴对齐区域。对于这些问题,我们导出了乘法更新,从而在每次迭代时提高目标函数的值,并单调收敛到全局最小值。这些更新具有简单的封闭形式,不涉及任何必须调整以确保收敛的启发式或自由参数。尽管它们很简单,但在形式上与机器学习中使用的其他乘法更新有着显著的不同。我们为这些更新提供了收敛性的完整证明,并描述了它们在信号处理和模式识别问题中的应用。

此内容仅以PDF格式提供。
您当前无权访问此内容。