1. 首页
  2. 数据库
  3. 其它
  4. ElasticSearch–IK中文分词器的配置

ElasticSearch–IK中文分词器的配置

上传者: 2021-01-16 16:21:11上传 PDF文件 56.65KB 热度 37次
elasticsearch本身自带的中文分词,就是单纯把中文一个字一个字的分开,根本没有词汇的概念。但是实际应用中,用户都是以词汇为条件,进行查询匹配的,如果能够把文章以词汇为单位切分开,那么与用户的查询条件能够更贴切的匹配上,查询速度也更加快速。 分词器下载网址:https://github.com/medcl/elasticsearch-analysis-ik 1.安装 下载好的zip包,请解压后放到 /usr/share/elasticsearch/plugins/ik 然后重启es 2.测试使用 使用默认 GET movie_index/_analyze { “text
用户评论