1. 首页
  2. 人工智能
  3. 机器学习
  4. 预训练文本表示作为元学习(Pre training Text Representations)

预训练文本表示作为元学习(Pre training Text Representations)

上传者: 2020-08-19 07:28:21上传 PDF文件 364.33KB 热度 12次
在这项工作中,我们介绍了一个学习算法,它直接优化模型学习文本表示的能力,以有效地学习下游任务。我们证明了多任务预训练和模型不可知的元学习之间有着内在的联系。BERT中采用的标准多任务学习目标是元训练深度为零的学习算法的一个特例。我们在两种情况下研究了这个问题:无监督的预训练和有监督的预训练,不同的预训练对象验证了我们的方法的通用性。实验结果表明,我们的算法对各种下游任务进行了改进,获得了更好的初始化。
下载地址
用户评论