联邦渐近:一个比较联邦学习算法的模型
Gary Cheng、Karan Chadha、John Duchi
第26届国际人工智能与统计会议论文集,PMLR 206:10650-106892023年。
摘要
我们开发了一个渐近框架来比较(个性化)联合学习算法的测试性能,其目的是超越算法收敛参数。为此,我们研究了一个高维线性回归模型,以阐明损失最小化器的统计特性(每客户测试误差)。我们的技术和模型可以准确预测联合场景中个性化和信息共享的好处,包括通过简单的客户端微调实现的联合平均化与更复杂的元学习方法具有相同的渐进风险,并且优于朴素的联合平均。我们在EMNIST、CIFAR-100、莎士比亚和堆栈溢出数据集的联邦版本上评估并证实了这些理论预测。
引用本文
相关材料