混合固定:异质性下最佳拜占庭ML的配方
优素福·阿洛阿(Youssef Allouah)、萨代赫·法哈德哈尼(Sadegh Farhadkhani
第26届国际人工智能与统计会议论文集,PMLR 206:1232-1300,2023年。
摘要
拜占庭机器学习(ML)旨在确保分布式学习算法对行为失常(或拜占庭)机器的恢复能力。尽管这个问题受到了很大的关注,但以前的工作通常假设机器所保存的数据是同质的,这在实际环境中很少是正确的。数据异构性使得拜占庭ML更具挑战性,因为拜占庭机器很难与非拜占庭异常值区分开来。已经提出了一些解决方案来解决这个问题,但这些方案提供了次优的概率保证,并且在实践中表现不佳。本文缩小了理论差距,实现了最优化,并得出了良好的实证结果。事实上,我们展示了如何通过一种强大的机制,我们称之为最近邻混合(NNM),将现有的(同质)拜占庭ML解决方案自动适应异质环境,该机制增强了任何标准的鲁棒分布式梯度下降变体,以在异质性下产生最佳拜占庭弹性。我们通过在分布式随机重球方法中插入NNM来获得类似的保证(期望),这是分布式梯度下降的一种实用替代方法。我们获得的实证结果明显优于最先进的拜占庭ML解决方案。
引用本文
相关材料