1. 首页
  2. 行业
  3. 医疗
  4. 基于BERT模型的中文医学文献分类研究

基于BERT模型的中文医学文献分类研究

上传者: 2020-07-20 07:18:09上传 PDF文件 559.94KB 热度 19次
探究BERT中文基础模型(BERT-Base-Chinese)和BERT中文医学预训练模型(BERT-Re-Pretraining-Med-Chi)在中文医学文献分类上的分类效果及差异原因。[方法] 本研究以34万篇中文医学文献摘要为医学文本预训练语料,分别以16,000和32,000条中文医学文献摘要为分类的训练样本,并以另外的3200条摘要作为测试样本,利用BERT的两个模型来进行中文医学文献分类研究,并以SVM方法作为对比基准。[结果] BERT的两种模型在分类效果上均优于SVM模型,两种模型的F1值均比SVM模型高出5%左右;BERT-Re-Pretraining-Med-Chi模型在
用户评论