1. 首页
  2. 人工智能
  3. 深度学习
  4. BERT——2018NLP最强论文

BERT——2018NLP最强论文

上传者: 2020-07-25 09:50:16上传 DOCX文件 74.63KB 热度 14次
申明:本资源来源于互联网,如有侵权,请联系本人或者CSDN进行删除,谢谢! 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》中,Jacob Devlin,Ming-Wei Chang, Kenton Lee, Kristina Toutanova等人提出的一种全新的深度学习架构,该架构在11项NLP任务中全面超越人类水平。
下载地址
用户评论