1. 首页
  2. 编程语言
  3. Python
  4. wiki.zh.text.model

wiki.zh.text.model

上传者: 2019-07-27 06:58:06上传 ZIP文件 15.2MB 热度 115次
中文维基百科语料库,将其转换为文本文件后,进行繁体字转换为简体字,字符集转换,分词,然后训练得到模型以及向量。由于文件上传的大小限制是60MB,我这里的压缩包中有model,然后对向量提供了下载链接。使用python中的gensim包进行训练得到的,运行时间较长,希望对你们有帮助。
用户评论
码姐姐匿名网友 2019-07-27 06:58:06

很棒的资料,谢谢谢谢

码姐姐匿名网友 2019-07-27 06:58:06

很好的资料,谢谢分享

码姐姐匿名网友 2019-07-27 06:58:06

请把wiki.zh.text.model.syn1neg.npy上传

码姐姐匿名网友 2019-07-27 06:58:06

因为处理不了中文维基百科的数据,直接获得训练好的Model再进行增量训练也不错~

码姐姐匿名网友 2019-07-27 06:58:06

这里面缺少文件呀

码姐姐匿名网友 2019-07-27 06:58:06

里面只有2个文件: wiki.zh.text.model 和 wiki.zh.text.vector_url , 无.syn1neg.npy文件,麻烦上传一下,谢谢!

码姐姐匿名网友 2019-07-27 06:58:06

博主,请问下您训练时,用的分词系统是哪种啊?

码姐姐匿名网友 2019-07-27 06:58:06

您好,我在训练模型是出现了这个问题C extension not loaded for Word2Vec, training will be slow.可以帮我解答下吗

码姐姐匿名网友 2019-07-27 06:58:06

只有.model没有.syn1neg.npy怎么用。。。

码姐姐匿名网友 2019-07-27 06:58:06

10分好贵啊。。。