计算机科学>机器学习
标题: 持续学习的自定步调体重巩固
摘要: 连续学习算法将新任务的参数保持在与前一任务的参数相近的水平,在顺序任务学习环境中防止灾难性遗忘方面很受欢迎。 然而,1)如果不区分之前学习过的任务的贡献,新的连续学习者的表现会降低; 2) 由于大多数现有算法在学习新任务时都需要正则化之前的所有任务,因此计算成本会随着任务数的增加而大大增加。 为了应对上述挑战,我们提出了一个自定步调的权重合并(spWC)框架,通过评估先前任务的不同贡献来实现稳健的持续学习。 具体来说,我们开发了一种自定步调的规则化方法,通过基于关键绩效指标(即准确性)测量难度来反映过去任务的优先级。 遇到新任务时,所有以前的任务都会根据优先级从“难”到“易”排序。 然后,新的连续学习者的参数将通过在更困难的过去任务中有选择地保持知识来学习,这可以用更少的计算成本很好地克服灾难性遗忘。 我们采用交替凸搜索来迭代更新双凸公式中的模型参数和优先级权重。 所提出的spWC框架是即插即用的,适用于不同方向(例如分类和分割)的大多数连续学习算法(例如EWC、MAS和RCIL)。 在几个公共基准数据集上的实验结果表明,与其他流行的连续学习算法相比,我们提出的框架可以有效地提高性能。