700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > ElasticSearch创建索引映射文档+IK分词器

ElasticSearch创建索引映射文档+IK分词器

时间:2020-07-15 03:22:27

相关推荐

ElasticSearch创建索引映射文档+IK分词器

目录

1.ElasticSearch介绍2.配置文件3.安装head插件和Kibana4.创建索引:4.1第一种:界面上直接新建4.2第二种:postman种新建5.创建映射6.创建文档6.1 不指定ID,随机生成6.2 指定ID,推荐7.搜索文档8.IK分词器8.1 测试分词器8.2 安装IK分词器8.3 两种分词模式8.3.1 ik_max_word 会将文本做最细粒度的拆分8.3.2 ik_smart:会做最粗粒度的拆分8.4 自定义词库9 修改映射10.搜索

1.ElasticSearch介绍

总结:

1、elasticsearch是一个基于Lucene的高扩展的分布式搜索服务器,支持开箱即用。

2、elasticsearch隐藏了Lucene的复杂性,对外提供Restful 接口来操作索引、搜索。

突出优点:

1.扩展性好,可部署上百台服务器集群,处理PB级数据。

2.近实时的去索引数据、搜索数据。

2.配置文件

elasticsearch.yml : 用于配置Elasticsearch运行参数

jvm.options : 用于配置Elasticsearch JVM设置

log4j2.properties: 用于配置Elasticsearch日志

elasticsearch.yml

cluster.name: wangnode.name: wang_node_1network.host: 0.0.0.0http.port: 9200transport.tcp.port: 9300node.master: truenode.data: true#discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302"]discovery.zen.minimum_master_nodes: 1bootstrap.memory_lock: falsenode.max_local_storage_nodes: 1path.data: D:\ES\elasticsearch-6.2.1\datapath.logs: D:\ES\elasticsearch-6.2.1\logshttp.cors.enabled: truehttp.cors.allow-origin: /.*/

常用的配置项如下:

cluster.name: ​ 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。

node.name:节点名,通常一台物理服务器就是一个节点,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理一个或多个节点组成一个cluster集群,集群是一个逻辑的概念,节点是物理概念

path.conf: 设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/

elasticsearch path.data:设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开。

path.logs:设置日志文件的存储路径,默认是es根目录下的logs文件夹

path.plugins: 设置插件的存放路径,默认是es根目录下的plugins文件夹

bootstrap.memory_lock: true 设置为true可以锁住ES使用的内存,避免内存与swap分区交换数据。

network.host: 设置绑定主机的ip地址,设置为0.0.0.0表示绑定任何ip,允许外网访问,生产环境建议设置为具体的ip。

http.port: 9200 设置对外服务的http端口,默认为9200。

transport.tcp.port: 9300 集群结点之间通信端口

node.master: 指定该节点是否有资格被选举成为master结点,默认是true,如果原来的master宕机会重新选举新的master。

node.data: 指定该节点是否存储索引数据,默认为true。

discovery.zen.ping.unicast.hosts: [“host1:port”, “host2:port”, “…”] 设置集群中master节点的初始列表。

discovery.zen.ping.timeout: 3s 设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些。

discovery.zen.minimum_master_nodes:主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1,比如:有3个符合要求的主结点,那么这里要设置为2。

node.max_local_storage_nodes: 单机允许的最大存储结点数,通常单机启动一个结点建议设置为1,开发环境如果单机启动多个节点可设置大于1.

3.安装head插件和Kibana

4.创建索引:

4.1第一种:界面上直接新建

4.2第二种:postman种新建

put http://localhost:9200/索引库名称

number_of_shards:设置分片的数量,在集群中通常设置多个分片,表示一个索引库将拆分成多片分别存储不同的结点,提高了ES的处理能力和高可用性,入门程序使用单机环境,这里设置为1。

number_of_replicas:设置副本的数量,设置副本是为了提高ES的高可靠性,单机环境设置为0.

5.创建映射

post http://localhost:9200/wang-001/doc/_mapping

6.创建文档

6.1 不指定ID,随机生成

http://localhost:9200/wang-001/doc

或kibana页面

6.2 指定ID,推荐

post http://localhost:9200/wang-001/doc/1

7.搜索文档

get http://localhost:9200/wang-001/doc/1

8.IK分词器

8.1 测试分词器

post http://localhost:9200/_analyze

分词结果:

8.2 安装IK分词器

8.3 两种分词模式

ik分词器有两种分词模式:ik_max_word和ik_smart模式。

ik_max_word:会将文本做最细粒度的拆分

ik_smart:会做最粗粒度的拆分

8.3.1 ik_max_word 会将文本做最细粒度的拆分

{“text”:“拼搏到无能为力”,“analyzer”:“ik_max_word”}

8.3.2 ik_smart:会做最粗粒度的拆分

{“text”:“拼搏到无能为力”,“analyzer”:“ik_smart”}

8.4 自定义词库

添加词库

加入

9 修改映射

不能直接修改,只能添加

添加,存储用最细粒度,搜索用最粗粒度

"analyzer":"ik_max_word","search_analyzer":"ik_smart"

10.搜索

新增几条数据

搜索所有

http://localhost:9200/wang-001/doc/_search

根据搜索字段名搜索

http://localhost:9200/wang-001/doc/_search?q=desc:无能

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。