FedDAT:一种多模式异构联合学习基础模型微调方法

作者

  • 陈浩坤 慕尼黑大学西门子股份公司
  • 姚张(音) 慕尼黑大学慕尼黑机器学习中心(MCML)
  • 丹尼斯·克朗帕斯 西门子股份公司
  • 顾金东 牛津大学
  • 沃尔克·特雷普 慕尼黑大学慕尼黑机器学习中心(MCML)

内政部:

https://doi.org/10.1609/aaai.v38i10.29007

关键词:

ML:多模式学习,CV:语言和视觉,ML:分布式机器学习和联合学习

摘要

最近,基础模型在多模式学习方面取得了显著的进步。这些模型配备了数百万(或数十亿)个参数,通常需要大量数据进行微调。然而,由于不同的隐私法规,从不同部门收集和集中培训数据变得很有挑战性。联合学习(FL)是一种很有前途的解决方案,它使多个客户能够在不集中其本地数据的情况下协作训练神经网络。为了减轻客户端的计算负担和通信开销,以前的工作针对FL采用了参数高效微调(PEFT)方法。因此,只有一小部分模型参数在联邦通信期间进行了优化和通信。然而,以前的大多数工作都侧重于单一模式,而忽略了一个常见现象,即客户之间存在数据异质性。因此,在这项工作中,我们提出了一个针对异构多模态外语的微调框架,称为联邦双适配器教师(FedDAT)。具体来说,我们的方法利用双适配器教师(DAT)解决数据异构性问题,方法是规范客户端本地更新,并应用相互知识提取(MKD)实现有效的知识转移。FedDAT是第一种能够对各种异构Vision-Language任务的基础模型进行高效分布式微调的方法。为了证明其有效性,我们在四个具有不同类型数据异质性的多模态FL基准上进行了广泛的实验,其中FedDAT大大优于适用于FL的现有集中式PEFT方法。

出版

2024-03-24

如何引用

Chen,H.、Zhang,Y.、Krompass,D.、Gu,J.和Tresp,V.(2024)。FedDAT:多模式异构联合学习中的基础模型微调方法。AAAI人工智能会议记录,38(10), 11285-11293. https://doi.org/10.1609/aaai.v38i10.29007

问题

章节

AAAI机器学习技术跟踪I