迪斯科

自洽自洽损失的经验分布优化。提出了一种新的分布式机器学习风险最小化算法。该算法基于不精确阻尼牛顿法,其中不精确牛顿步数由分布预处理共轭梯度法计算。我们分析了它的迭代复杂度和通信效率,以最小化自协和经验损失函数,并讨论了分布岭回归、logistic回归和平滑铰链损失二元分类的结果。在有监督学习的标准设置中,当n个数据点被i.i.d.采样,当正则化参数为1/sqrtn时,我们证明了所提出的算法是有效的:所需的通信轮数不随样本数n增加而增加,只随机器数目的增加而缓慢增长。