Elasticsearch 安装中文分词器

这里用的是ik,安装之前,检查一下自己的es版本

我这里是 7.10.1

找到对应的版本

https://github.com/medcl/elasticsearch-analysis-ik/releases

./elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.10.1/elasticsearch-analysis-ik-7.10.1.zip

重启es看一下是否已经加载

这里我一共有3个节点

我们在 节点1 上安装 ik,我们重启一下 节点2,看一下

查看对应 log tail -300 /var/log/elasticsearch/lizhe-es.log

使用python向 es 中插入测试数据

from elasticsearch import Elasticsearch
from datetime import *

es = Elasticsearch("192.168.204.132:9200")

es.indices.create(index='lizhe-index')

es.index(index="lizhe-index",doc_type="test-type",body={"content":"工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作","timestamp":datetime.now()})

测试一下分词器

http://192.168.204.131:9200/

_analyze            POST

{
  “analyzer”: “default”,
  “text”: “工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作”
}

带 中文分词器 的情况