主页

论文

提交的资料

新闻

编辑委员会

开源软件

程序(PMLR)

交易(TMLR)

搜索

统计

登录

常见问题

联系我们



RSS源

基于边缘转移学习的领域泛化

Gilles Blanchard、Aniket Anand Deshmukh、Urun Dogan、Gyemin Lee、Clayton Scott; 22(2):1−55, 2021.

摘要

在领域泛化(DG)问题中,存在来自几个相关预测问题的标记训练数据集,其目标是对学习者未知的未来未标记数据集进行准确预测。在一些应用程序中,由于环境、技术或其他变化源,数据分布会发生波动,因此会出现此问题。我们引入了一个DG的形式化框架,并认为它可以被视为一种监督学习问题,即通过特征向量的边缘分布来增加原始特征空间。虽然我们的框架与监督学习算法的传统分析有一些联系,但DG的几个独特方面需要新的分析方法。这项工作在我们之前介绍DG问题的会议论文的基础上,奠定了领域泛化的学习理论基础。我们提出了两种数据生成的形式化模型、相应的风险概念和无分布泛化错误分析。通过将注意力集中在核方法上,我们还提供了更多的定量结果和普遍一致的算法。该算法提供了一种有效的实现方法,并在一个合成数据集和三个真实数据集上与池策略进行了实验比较。

[腹肌][pdf格式][围兜]      [代码]
©JMLR公司2021(编辑,贝塔)