ElasticSearch创建索引映射文档+IK分词器

1.ElasticSearch介绍

在这里插入图片描述

总结:

1、elasticsearch是一个基于Lucene的高扩展的分布式搜索服务器,支持开箱即用。

2、elasticsearch隐藏了Lucene的复杂性,对外提供Restful 接口来操作索引、搜索。
突出优点:

1.扩展性好,可部署上百台服务器集群,处理PB级数据。

2.近实时的去索引数据、搜索数据。

2.配置文件

elasticsearch.yml : 用于配置Elasticsearch运行参数
jvm.options : 用于配置Elasticsearch JVM设置
log4j2.properties: 用于配置Elasticsearch日志

elasticsearch.yml

cluster.name: wang
node.name: wang_node_1
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
node.master: true
node.data: true
#discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302"]
discovery.zen.minimum_master_nodes: 1
bootstrap.memory_lock: false
node.max_local_storage_nodes: 1

path.data: D:\ES\elasticsearch-6.2.1\data
path.logs: D:\ES\elasticsearch-6.2.1\logs

http.cors.enabled: true
http.cors.allow-origin: /.*/

常用的配置项如下:

cluster.name: ​ 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。

node.name:节点名,通常一台物理服务器就是一个节点,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理一个或多个节点组成一个cluster集群,集群是一个逻辑的概念,节点是物理概念
path.conf: 设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/
elasticsearch path.data:设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开。
path.logs:设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins: 设置插件的存放路径,默认是es根目录下的plugins文件夹
bootstrap.memory_lock: true 设置为true可以锁住ES使用的内存,避免内存与swap分区交换数据。
network.host: 设置绑定主机的ip地址,设置为0.0.0.0表示绑定任何ip,允许外网访问,生产环境建议设置为具体的ip。

http.port: 9200 设置对外服务的http端口,默认为9200。

transport.tcp.port: 9300 集群结点之间通信端口

node.master: 指定该节点是否有资格被选举成为master结点,默认是true,如果原来的master宕机会重新选举新的master。

node.data: 指定该节点是否存储索引数据,默认为true。

discovery.zen.ping.unicast.hosts: [“host1:port”, “host2:port”, “…”] 设置集群中master节点的初始列表。

discovery.zen.ping.timeout: 3s 设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些。
discovery.zen.minimum_master_nodes:主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1,比如:有3个符合要求的主结点,那么这里要设置为2。

node.max_local_storage_nodes: 单机允许的最大存储结点数,通常单机启动一个结点建议设置为1,开发环境如果单机启动多个节点可设置大于1.

3.安装head插件和Kibana

在这里插入图片描述

4.创建索引:

4.1第一种:界面上直接新建

在这里插入图片描述
在这里插入图片描述

4.2第二种:postman种新建

put http://localhost:9200/索引库名称

number_of_shards:设置分片的数量,在集群中通常设置多个分片,表示一个索引库将拆分成多片分别存储不同的结点,提高了ES的处理能力和高可用性,入门程序使用单机环境,这里设置为1。
number_of_replicas:设置副本的数量,设置副本是为了提高ES的高可靠性,单机环境设置为0.

在这里插入图片描述

5.创建映射

post http://localhost:9200/wang-001/doc/_mapping
在这里插入图片描述
在这里插入图片描述

6.创建文档

6.1 不指定ID,随机生成

http://localhost:9200/wang-001/doc
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
或kibana页面
在这里插入图片描述

6.2 指定ID,推荐

post http://localhost:9200/wang-001/doc/1
在这里插入图片描述
在这里插入图片描述

7.搜索文档

get http://localhost:9200/wang-001/doc/1
在这里插入图片描述

8.IK分词器

8.1 测试分词器

post http://localhost:9200/_analyze
在这里插入图片描述
分词结果:
在这里插入图片描述

8.2 安装IK分词器

在这里插入图片描述

8.3 两种分词模式

ik分词器有两种分词模式:ik_max_word和ik_smart模式。
ik_max_word:会将文本做最细粒度的拆分
ik_smart:会做最粗粒度的拆分

8.3.1 ik_max_word 会将文本做最细粒度的拆分

{“text”:“拼搏到无能为力”,“analyzer”:“ik_max_word”}
在这里插入图片描述
在这里插入图片描述

8.3.2 ik_smart:会做最粗粒度的拆分

{“text”:“拼搏到无能为力”,“analyzer”:“ik_smart”}

在这里插入图片描述
在这里插入图片描述

8.4 自定义词库

在这里插入图片描述
在这里插入图片描述
添加词库
在这里插入图片描述
加入
在这里插入图片描述
在这里插入图片描述

9 修改映射

不能直接修改,只能添加
在这里插入图片描述
添加,存储用最细粒度,搜索用最粗粒度

"analyzer":"ik_max_word",
"search_analyzer":"ik_smart"

在这里插入图片描述

10.搜索

新增几条数据
在这里插入图片描述
搜索所有
http://localhost:9200/wang-001/doc/_search
根据搜索字段名搜索
http://localhost:9200/wang-001/doc/_search?q=desc:无能

在这里插入图片描述

  • 5
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 要在 Elasticsearch 上安装 IK 分词器,需要以下几步操作: 1. 下载 IK 分词器插件,并将其复制到 Elasticsearch 插件目录中。 2. 使用 Elasticsearch 的命令行工具安装插件,例如: ``` bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.10.0/elasticsearch-analysis-ik-7.10.0.zip ``` 3. 重启 Elasticsearch 节点,使 IK 分词器生效。 4. 在你的索引映射中使用 IK 分词器,例如: ``` PUT my_index { "mappings": { "_doc": { "properties": { "message": { "type": "text", "analyzer": "ik_max_word" } } } } } ``` 这样 IK 分词器就安装完成了。 ### 回答2: Elasticsearch是一个广泛应用于全文搜索、日志分析、业务指标和数据分析等领域的开源搜索引擎,对于中文搜索的支持是非常重要的。而IK分词器为其提供了中文分词的支持。本答案将为您解释如何安装IK分词器。 1. 下载IK分词器: 首先需要下载适用于您当前使用的Elasticsearch版本的IK分词器,可以在开源中国上下载。下载后将其解压至任意目录,例如解压到“C:\ik”。 2. 安装IK分词器: 将解压后的IK分词器安装到Elasticsearch。只需在Elasticsearch的根目录下启动终端,通过以下命令安装IK分词器: ``` ./bin/elasticsearch-plugin install file:///PATH_TO_FILE/ik-plugin-x.x.x.zip ``` 其中,PATH_TO_FILE即为解压后保存IK分词器的路径。"x.x.x"为IK分词器的版本号,替换为实际的版本号。 3. 测试IK分词器: 在Elasticsearch创建索引,指定使用IK分词器: ``` PUT /my_index { "settings": { "analysis": { "analyzer": { "ik_analyzer": { "type": "custom", "tokenizer": "ik_smart" } } } } } ``` 以上示例将IK分词器设置为my_index索引的默认分词器。可通过以下命令来测试IK分词器的效果: ``` GET /my_index/_analyze { "analyzer": "ik_analyzer", "text": "中文分词测试" } ``` 以上即为安装IK分词器的步骤和测试方法,通过以上步骤可以快速、方便地为您的Elasticsearch添加中文搜索的支持。 ### 回答3: Elasticsearch是一个开源的搜索引擎,它可以帮助用户快速和准确地检索大量的数据。而IK分词器则是一款中文分词插件,它可以将中文文本分解为词语,从而提高搜索结果的准确性。那么,如何在Elasticsearch中安装IK分词器呢? 安装方法如下: Step 1:下载ik分词器插件 可以从GitHub下载最新的ik分词器此时版本为7.11.2 wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.11.2/elasticsearch-analysis-ik-7.11.2.zip Step 2:解压ik插件 将下载好的插件解压到elasticsearch的plugins目录中: unzip elasticsearch-analysis-ik-7.11.2.zip -d /path/to/elasticsearch-<version>/plugins/ Step 3:重启ElasticSearch 重启Elasticsearch服务器,使插件生效: ./elasticsearch Step 4:安装分词器 使用curl命令安装中文分词器: curl -H "Content-Type: application/json" -X PUT --data-binary @/path/to/config/location/ik_index_settings.json http://localhost:9200/_settings curl -H "Content-Type: application/json" -X PUT --data-binary @/path/to/config/location/ik_synonyms.json http://localhost:9200/_settings Step 5:创建测试索引 为了测试是否安装成功,可以创建一个测试索引和mapping: curl -H "Content-Type: application/json" -X PUT --data-binary @/path/to/config/location/ik_test_index.json http://localhost:9200/ik_test 注意事项: - 确认Elasticsearch和插件版本是否一致。 - 插件应该安装在每个Elasticsearch节点上的plugins目录中。 - 确认分词器的配置是否正确。 - 在添加文档时,使用正确的字段名和正确的分词器。 总之,以上是在Elasticsearch中安装IK分词器的方法,如果您遇到了什么问题,请详细阅读官方文档或向社区寻求帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值