BERT:预训练的深度双向 Transformer 语言模型 上传者:伍少资源网 2020-05-06 15:08:52上传 PDF文件 3.52MB 热度 76次 我们提出了一种新的称为BERT的语言表示模型,BERT代表来自Transformer的双向编码器表示 (BidirectionalEncoderRepresentationsfromTransformers)。不同于最近的语言表示模型(Peters etal.,2018,Radfordetal.,2018),BERT旨在通过联合调节所有层中的左右上下文来预训练深度 双向表示。因此,只需要一个额外的输出层,就可以对预训练的BERT表示进行微调,从而为广泛的 任务(比如回答问题和语言推断任务)创建最先进的模型,而无需对特定于任务进行大量模型结构的 修改。 BER 下载地址 用户评论 更多下载 下载地址 立即下载 用户评论 发表评论 伍少资源网 资源:1 粉丝:0 +关注 上传资源 免责说明 本站只是提供一个交换下载平台,下载的内容为本站的会员网络搜集上传分享交流使用,有完整的也有可能只有一分部,相关内容的使用请自行研究,主要是提供下载学习交流使用,一般不免费提供其它各种相关服务! 本站内容泄及的知识面非常广,请自行学习掌握,尽量自已动脑动手解决问题,实践是提高本领的途径,下载内容不代表本站的观点或立场!如本站不慎侵犯你的权益请联系我们,我们将马上处理撤下所有相关内容!联系邮箱:server@dude6.com