1. 首页
  2. 人工智能
  3. 机器学习
  4. BERT_Pretraining of Deep Bidirectional Transformers for Language Understanding

BERT_Pretraining of Deep Bidirectional Transformers for Language Understanding

上传者: 2019-07-26 00:28:17上传 PDF文件 578.29KB 热度 21次
BERT全称BidirectionalEncoderRepresentationsfromTransformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。项目地址:https://github.com/google-research/bert#fine-tuning-with-bert
用户评论