1. 首页
  2. 人工智能
  3. 深度学习
  4. chinese_L12_H768_A12.txt

chinese_L12_H768_A12.txt

上传者: 2019-09-20 06:52:38上传 TXT文件 97B 热度 45次
谷歌Google中文BERT中文预训练模型chinese_L-12_H-768_A-12.zip。BERT本质上是一个两段式的NLP模型。第一个阶段叫做:Pre-training,跟WordEmbedding类似,利用现有无标记的语料训练一个语言模型。第二个阶段叫做:Fine-tuning,利用预训练好的语言模型,完成具体的NLP下游任务。Google已经投入了大规模的语料和昂贵的机器帮我们完成了Pre-training过程附上中文预训练bert链接
用户评论