1. 首页
  2. 编程语言
  3. 其他
  4. Lucene中文分词器组件

Lucene中文分词器组件

上传者: 2019-09-28 18:20:44上传 RAR文件 853.24KB 热度 40次
来自“猎图网www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1.正向全切分算法,42万汉字字符/每秒的处理能力(IBMThinkPad酷睿I1.6G1G内存WinXP)2.对数量词、地名、路名的优化处理3.对未知词汇采用自识别结合二元切分算法,确保搜索召回率V2.0.2修订Bata版对二元切分的缺陷正向全切分分词器:org.mira.lucene.analysis.IK_CAnalyzer(适合建索引时使用)正向
用户评论
码姐姐匿名网友 2019-09-28 18:20:44

谢谢分享,总体可以参考一下。

码姐姐匿名网友 2019-09-28 18:20:44

资料挺不错的,需要研究。

码姐姐匿名网友 2019-09-28 18:20:44

凑合着能用。谢谢。

码姐姐匿名网友 2019-09-28 18:20:44

还可以用,虽然准确性还有待提高

码姐姐匿名网友 2019-09-28 18:20:44

试用中,感觉还可以,谢谢分享

码姐姐匿名网友 2019-09-28 18:20:44

还凑合,可以用,但是分词不太准确。

码姐姐匿名网友 2019-09-28 18:20:44

很好用我喜欢

码姐姐匿名网友 2019-09-28 18:20:44

分词不是很准确,不过还行

码姐姐匿名网友 2019-09-28 18:20:44

试用中,感觉盘古好用点,谢谢分享