wiki.zh.text.model 上传者:假装未曾来过 2019-07-27 06:58:06上传 ZIP文件 15.2MB 热度 126次 中文维基百科语料库,将其转换为文本文件后,进行繁体字转换为简体字,字符集转换,分词,然后训练得到模型以及向量。由于文件上传的大小限制是60MB,我这里的压缩包中有model,然后对向量提供了下载链接。使用python中的gensim包进行训练得到的,运行时间较长,希望对你们有帮助。 下载地址 用户评论 更多下载 下载地址 立即下载 用户评论 码姐姐匿名网友 2019-07-27 06:58:06 很棒的资料,谢谢谢谢 码姐姐匿名网友 2019-07-27 06:58:06 很好的资料,谢谢分享 码姐姐匿名网友 2019-07-27 06:58:06 请把wiki.zh.text.model.syn1neg.npy上传 码姐姐匿名网友 2019-07-27 06:58:06 因为处理不了中文维基百科的数据,直接获得训练好的Model再进行增量训练也不错~ 码姐姐匿名网友 2019-07-27 06:58:06 这里面缺少文件呀 码姐姐匿名网友 2019-07-27 06:58:06 里面只有2个文件: wiki.zh.text.model 和 wiki.zh.text.vector_url , 无.syn1neg.npy文件,麻烦上传一下,谢谢! 码姐姐匿名网友 2019-07-27 06:58:06 博主,请问下您训练时,用的分词系统是哪种啊? 码姐姐匿名网友 2019-07-27 06:58:06 您好,我在训练模型是出现了这个问题C extension not loaded for Word2Vec, training will be slow.可以帮我解答下吗 码姐姐匿名网友 2019-07-27 06:58:06 只有.model没有.syn1neg.npy怎么用。。。 码姐姐匿名网友 2019-07-27 06:58:06 10分好贵啊。。。 发表评论
很棒的资料,谢谢谢谢
很好的资料,谢谢分享
请把wiki.zh.text.model.syn1neg.npy上传
因为处理不了中文维基百科的数据,直接获得训练好的Model再进行增量训练也不错~
这里面缺少文件呀
里面只有2个文件: wiki.zh.text.model 和 wiki.zh.text.vector_url , 无.syn1neg.npy文件,麻烦上传一下,谢谢!
博主,请问下您训练时,用的分词系统是哪种啊?
您好,我在训练模型是出现了这个问题C extension not loaded for Word2Vec, training will be slow.可以帮我解答下吗
只有.model没有.syn1neg.npy怎么用。。。
10分好贵啊。。。