1. 首页
  2. 存储
  3. IBM
  4. 2007Boosting for Transfer Learning.pdf

2007Boosting for Transfer Learning.pdf

上传者: 2020-11-05 23:18:07上传 PDF文件 464KB 热度 15次
论文摘要:传统机器学习的基本假设是:训练数据和测试数据应该处于相同的分布下。然而,在许多情况下,这种假设并不成立。当来自一个新域的任务出现,而只有来自类似旧域的标记数据时,可能会违反这个假设。给新数据贴上标签可能代价高昂,而且扔掉所有旧数据也会是一种浪费。在本文中,我们提出了一个新的迁移学习框架TrAdaBoost,它扩展了基于增强的学习算法(Freund &Schapire, 1997)。TrAdaBoost允许用户利用少量的新标签数据来利用旧数据来为新数据构建高质量的分类模型。我们证明,这种方法可以让我们仅使用少量的新数据和大量的旧数据来学习一个准确的模型。
用户评论