700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > Elasticsearch(二)IK中文分词器

Elasticsearch(二)IK中文分词器

时间:2024-06-25 12:52:39

相关推荐

Elasticsearch(二)IK中文分词器

文章目录

安装 ik 分词器在三个节点上安装 ik 分词器查看安装结果 ik分词测试`ik_max_word` 分词测试`ik_smart` 分词测试

安装 ik 分词器

从 ik 分词器项目仓库中下载 ik 分词器安装包,下载的版本需要与 Elasticsearch 版本匹配

/medcl/elasticsearch-analysis-ik

或者可以访问 gitee 镜像仓库:

/mirrors/elasticsearch-analysis-ik

下载elasticsearch-analysis-ik-7.9.3.zip复制到/root/目录下

在三个节点上安装 ik 分词器

cd ~/# 复制 ik 分词器到三个 es 容器docker cp elasticsearch-analysis-ik-7.9.3.zip node1:/root/docker cp elasticsearch-analysis-ik-7.9.3.zip node2:/root/docker cp elasticsearch-analysis-ik-7.9.3.zip node3:/root/# 在 node1 中安装 ik 分词器docker exec -it node1 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip# 在 node2 中安装 ik 分词器docker exec -it node2 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip# 在 node3 中安装 ik 分词器docker exec -it node3 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip# 重启三个 es 容器docker restart node1 node2 node3

查看安装结果

在浏览器中访问 http://192.168.64.181:9200/_cat/plugins

如果插件不可用,可以卸载后重新安装:

docker exec -it node1 elasticsearch-plugin remove analysis-ikdocker exec -it node2 elasticsearch-plugin remove analysis-ikdocker exec -it node3 elasticsearch-plugin remove analysis-ik

ik分词测试

ik分词器提供两种分词器:ik_max_wordik_smart

ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合,适合 Term Query;

ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询。

ik_max_word分词测试

使用 head 执行下面测试:

http://192.168.64.181:9200/_analyze路径提交POST请求,并在协议体中提交 Json 数据:

{"analyzer":"ik_max_word","text":"中华人民共和国国歌"}

ik_smart分词测试

使用 head 执行下面测试:

http://192.168.64.181:9200/_analyze路径提交POST请求,并在协议体中提交 Json 数据:

{"analyzer":"ik_smart","text":"中华人民共和国国歌"}

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。