1. 首页
  2. 数据库
  3. 其它
  4. KR BERT:基于KoRean的BERT预训练模型(KR BERT)用于Tensorflow和PyTorch 源码

KR BERT:基于KoRean的BERT预训练模型(KR BERT)用于Tensorflow和PyTorch 源码

上传者: 2021-03-12 01:11:44上传 ZIP文件 33.61MB 热度 19次
基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌) 科伯特(ETRI) 科伯特(SKT) KR-BERT字符 KR-BERT子字符 vocab大小 119,547 30,797 8,002 16,424 12,367 参数大小 167,356,416 109,973,391 92,186,880 99,265,066 96,145,233 资料大小 -- (维基百科数据适用于104种语言) 23GB 4.7B语素 --
用户评论