ElasticSearch
1. 什么是RestFul
REST
: 表现层状态转化(Representational State Transfer),如果⼀个架构符合REST原则,就称它为 RESTful 架构⻛格。
资源
: 所谓"资源",就是⽹络上的⼀个实体,或者说是⽹络上的⼀个具体信息
表现层
:我们把"资源"具体呈现出来的形式,叫做它的"表现层"(Representation)。
状态转化(State Transfer)
:如果客户端想要操作服务器,必须通过某种⼿段,让服务器端发⽣"状态转 化"(State Transfer)。⽽这种转化是建⽴在表现层之上的,所以就是"表现层状态转化"。
REST原则就是指⼀个URL代表⼀个唯⼀资源,并且通过HTTP协议⾥⾯四个动词**:GET**、POST、PUT、DELETE对应四种服务器端的基本操作**: GET⽤来获取资源,POST⽤来添加资源(也可以⽤于更新资源)**,PUT⽤来更新资源,DELETE⽤来删除资源。
2. 什么是全⽂检索
全⽂检索是计算机程序通过扫描⽂章中的每⼀个词,对每⼀个词建⽴⼀个索引,指明该词在⽂章中出现的次数和位置。当⽤户查询时根据建⽴的索引查找,类似于通过字典的检索字表查字的过程。
全⽂检索(Full-Text Retrieval(检索))以⽂本作为检索对象,找出含有指定词汇的⽂本。全⾯、准确和快速是衡量全⽂检索系统的关键指标。
关于全⽂检索,我们要知道:
-
只处理⽂本。
-
不处理语义。
-
搜索时英⽂不区分⼤⼩写。
-
结果列表有相关度排序。
3.什么是ElasticSearch
ElasticSearch 简称 ES ,是基于Apache Lucene构建的开源搜索引擎,是当前流⾏的企业级搜索引擎。Lucene本身就可以被认为迄今为⽌性能最好的⼀款开源搜索引擎⼯具包,但是lucene的API相对复杂,需要深厚的搜索理论。很难集成到实际的应⽤中去。同时ES是采⽤java语⾔编写,提供了简单易⽤的RestFul API,开发者可以使⽤其简单的RestFul API,开发相关的搜索功能,从⽽避免lucene的复杂性。
4. ES的诞⽣
多年前,⼀个叫做Shay Banon的刚结婚不久的失业开发者,由于妻⼦要去伦敦学习厨师,他便跟着也去了。在他找⼯作的过程中,为了给妻⼦构建⼀个⻝谱的搜索引擎,他开始构建⼀个早期版本的Lucene。直接基于Lucene⼯作会⽐较困难,所以Shay开始抽象Lucene代码以便Java程序员可以在应⽤中添加搜索功能。他发布了他的第⼀个开源项⽬,叫做“Compass”。后来Shay找到⼀份⼯作,这份⼯作处在⾼性能和内存数据⽹格的分布式环境中,因此⾼性能的、实时的、分布式的搜索引擎也是理所当然需要的。然后他决定重写Compass库使其成为⼀个独⽴的服务叫做Elasticsearch。
第⼀个公开版本出现在2010年2⽉,在那之后Elasticsearch已经成为Github上最受欢迎的项⽬之⼀,代码贡献者超过300⼈。⼀家主营Elasticsearch的公司就此成⽴,他们⼀边提供商业⽀持⼀边开发新功能,不过Elasticsearch将永远开源且对所有⼈可⽤。Shay的妻⼦依旧等待着她的⻝谱搜索……
5. ES的应⽤场景
Es主要以轻量级JSON作为数据存储格式,这点与MongoDB有点类似,但它在读写性能上优于MongoDB 。同时也⽀持地理位置查询 ,还⽅便地理位置和⽂本混合查询 。 以及在统计、⽇志类数据存储和分析、可视化这⽅⾯是引领者。
国外**😗*
Wikipedia(维基百科)使⽤ES提供全⽂搜索并⾼亮关键字、StackOverflflow(IT问答⽹站)结合全⽂搜索与地理位置查询、Github使⽤Elasticsearch检索1300亿⾏的代码。
国内**😗*
百度(在云分析、⽹盟、预测、⽂库、钱包、⻛控等业务上都应⽤了ES,单集群每天导⼊30TB+数据, 总共每天60TB+)、新浪 、阿⾥巴巴、腾讯等公司均有对ES的使⽤。
使⽤⽐较⼴泛的平台ELK(ElasticSearch, Logstash, Kibana)。
6. ES的安装
-
安装前准备
centos7 +
java 8 +
elastic 6.2.4+
-
在官⽅⽹站下载ES
wget http://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.4.1.tar.gz
-
安装JDK(必须JDK1.8+) rpm -ivh jdk-8u181-linux-x64.rpm
注意:默认安装位置 /usr/java/jdk1.8.0_171-amd64
-
配置环境变量
vim /etc/profile
在⽂件末尾加⼊:
export JAVA_HOME=/usr/java/jdk1.8.0_171-amd64 export PATH=$PATH:$JAVA_HOME/bin
-
重载系统配置
source /etc/profile
-
安装elasticsearche
tar -zxvf elasticsearch-6.4.1.tar.gz
-
elasticsearche的⽬录结构
bin --可执⾏的⼆进制⽂件的⽬录 config --配置⽂件的⽬录 lib --运⾏时依赖的库 logs --modules 运⾏时⽇志⽂件 plugins --es中提供的插件
-
运⾏es服务
在bin⽬录中执⾏ ./elasticsearch
注意:
root⽤户启动[2018-09-19T14:50:04,029][WARN ] [o.e.b.ElasticsearchUncaughtExceptionHandler] [] uncaught exception in thread [main]org.elasticsearch.bootstrap.StartupException: java.lang.RuntimeException: can not run elasticsearch as root
-
不能以root⽤户身份启动
a.在linux系统中创建新的组 groupadd es b.创建新的⽤户es并将es⽤户放⼊es组中 useradd es -g es c.修改es⽤户密码 passwd es d.将root⽤户解压的⽂件移动到es⽤户⽬录中 mv /root/elasticsearch-6.2.4 /home/es/ f.改变⽂件的所有者 chown -R es:es 当前es的安装⽬录(这⾥是:/home/es/elasticsearch)
-
登录es⽤户启动ES ./elasticsearch 启动ES
-
测试ES是否启动成功
在命令终端中执⾏: curl http://localhost:9200 出现以下信息:
{
"name" : "xQK1cwT",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "t7IYk7LKQ0mXcyyrdFWpLg",
"version" : {
"number" : "6.2.4",
"build_hash" : "ccec39f",
"build_date" : "2018-04-12T20:37:28.497551Z",
"build_snapshot" : false,
"lucene_version" : "7.2.1",
"minimum_wire_compatibility_version" : "5.6.0",
"minimum_index_compatibility_version" : "5.0.0"
},
"tagline" : "You Know, for Search"
}
- 开启ES远程访问
vim elasticsearch.yml 将原来network修改为以下配置:
network.host: 0.0.0.0
-
启动时错误解决⽅案
a.重新启动es出现如下错误
ERROR: bootstrap checks failed[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
解决⽅案:
# 切换到root⽤户修改
vim /etc/security/limits.conf
# 在最后⾯追加下⾯内容
* soft nofile 65536
* hard nofile 65536
* soft nproc 4096
* hard nproc 4096
# 退出重新登录检测配置是否⽣效:
ulimit -Hn
ulimit -Sn
ulimit -Hu
ulimit -Su
b.重新启动出现如下错误
ERROR: max number of threads [3802] for user [chenyn] is toolow,increase to at least [4096]
解决⽅案:
#进⼊limits.d⽬录下修改配置⽂件。
vim /etc/security/limits.d/20-nproc.conf
修改为 启动ES⽤户名 soft nproc 4096
c.重新启动出现如下错误
ERROR: max virtual memory areas vm.max_map_count [65530] is toolow, increase to at least [262144]
解决⽅案:
vim /etc/sysctl.conf
vm.max_map_count=655360
执⾏以下命令⽣效:
sysctl -p
-
关闭⽹络防⽕墙
systemctl stop firewalld
systemctl restart firewalld
外部浏览器访问即可
http://es的主机名:9200 出现如下信息说明安装成功:
{
"name" : "xQK1cwT",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "t7IYk7LKQ0mXcyyrdFWpLg",
"version" : {
"number" : "6.2.4",
"build_hash" : "ccec39f",
"build_date" : "2018-04-12T20:37:28.497551Z",
"build_snapshot" : false,
"lucene_version" : "7.2.1",
"minimum_wire_compatibility_version" : "5.6.0",
"minimum_index_compatibility_version" : "5.0.0"
},
"tagline" : "You Know, for Search"
}
7. ES中的基本概念
7.1 接近实时**(NRT)**
Elasticsearch是⼀个接近实时的搜索平台。这意味着,从索引⼀个⽂档直到这个⽂档能够被搜索到有⼀个轻微的延迟**(通常是1秒内)**
7.2 索引**(index)**
⼀个索引就是⼀个拥有⼏分相似特征的⽂档的集合。⽐如说,你可以有⼀个客户数据的索引,另⼀个产品⽬录的索引,还有⼀个订单数据的索引。⼀个索引由⼀个名字来标识**(必须全部是⼩写字⺟的),并且当我们要对这个索引中的⽂档进⾏索引、搜索、更新和删除的时候,都要使⽤到这个名字。索引类似于关系型数据库中Database** 的概念。在⼀个集群中,如果你想,可以定义任意多的索引。
7.3 类型**(type)**
在⼀个索引中,你可以定义⼀种或多种类型。⼀个类型是你的索引的⼀个逻辑上的分类/分区,其语义完全由你来定。通常,会为具有⼀组共同字段的⽂档定义⼀个类型。⽐如说,我们假设你运营⼀个博客平台并且将你所有的数 据存储到⼀个索引中。在这个索引中,你可以为⽤户数据定义⼀个类型,为博客数据定义另⼀个类型,当然,也可 以为评论数据定义另⼀个类型。类型类似于关系型数据库中Table的概念。
NOTE: 在5.x版本以前可以在⼀个索引中定义多个类型**,6.x之后版本也可以使⽤,但是不推荐,在8.x**版本中彻底移除⼀个索引中创建多个类型
7.4 映射**(Mapping)**
Mapping是ES中的⼀个很重要的内容,它类似于传统关系型数据中table的schema,⽤于定义⼀个索引**(index)中的类型(type)的数据的结构。 在ES中,我们可以⼿动创建type(相当于table)和mapping(相关与schema),也可以采⽤默认创建⽅式。在默认配置下,ES可以根据插⼊的数据⾃动地创建type及其mapping**。 mapping中主要包括字段名、字段数据类型和字段索引类型
7.5 ⽂档**(document)**
⼀个⽂档是⼀个可被索引的基础信息单元,类似于表中的⼀条记录。⽐如,你可以拥有某⼀个员⼯的⽂档,也可以拥有某个商品的⼀个⽂档。⽂档以采⽤了轻量级的数据交换格式JSON(Javascript Object Notation)来表示。
8. Kibana的安装
Kibana是⼀个针对Elasticsearch的开源分析及可视化平台,使⽤Kibana可以查询、查看并与存储在ES索引的数据进⾏交互操作,使⽤Kibana能执⾏⾼级的数据分析,并能以图表、表格和地图的形式查看数据
- 下载Kibana
https://www.elastic.co/downloads/kibana
-
安装下载的kibana
rpm -ivh kibana-6.2.4-x86_64.rpm
-
查找kibana的安装位置
find / -name kibana
-
编辑kibana配置⽂件
[root@localhost /]# vim /etc/kibana/kibana.yml
- 修改如下配置
server.host: "10.102.115.3" #ES服务器主机名
elasticsearch.url: "http://10.102.115.3:9200" #ES服务器地址
-
启动kibana
systemctl start kibana systemctl stop kibana systemctl status kibana
-
访问kibana的web界⾯
http://10.102.115.3:5601/ #kibana默认端⼝为5601 使⽤主机:端⼝直接访问即可
9. Kibana的基本操作
9.1 索引**(Index)**的基本操作
9.2 类型**(type)**的基本操作
创建类型
Mapping Type: : text , keyword , date ,integer, long , double , boolean or ip
查看类型
PUT /dangdang/ 创建索引
DELETE /dangdang 删除索引
DELETE /* 删除所有索引
GET /_cat/indices?v 查看索引信息
1.创建/dangdang索引并创建(product)类型
PUT /dangdang
{
"mappings": {
"product": {
"properties": {
"title": { "type": "text" },
"name": { "type": "text" },
"age": { "type": "integer" },
"created": {
"type": "date",
"format": "strict_date_optional_time||epoch_millis"
}
}
}
}
}
注意: 这种⽅式创建类型要求索引不能存在9.3 ⽂档**(document)**的基本操作
添加⽂档
查询⽂档
删除⽂档
GET /dangdang/_mapping/product # 语法:GET /索引名/_mapping/类型名
PUT /ems/emp/1 #/索引/类型/id
{
"name":"赵⼩六",
"age":23,
"bir":"2012-12-12",
"content":"这是⼀个好⼀点的员⼯"
}
GET /ems/emp/1
返回结果:
{
"_index": "ems",
"_type": "emp",
"_id": "1",
"_version": 1,
"found": true,
"_source": {
"name": "赵⼩六",
"age": 23,
"bir": "2012-12-12",
"content": "这是⼀个好⼀点的员⼯"
}
}
DELETE /ems/emp/1
{
"_index": "ems",
"_type": "emp",
"_id": "1",
"_version": 2,
"result": "deleted", #删除成功
"_shards": {
"total": 2,
"successful": 1,
"failed": 0更新⽂档
批量操作
},
"_seq_no": 1,
"_primary_term": 1
}
1.第⼀种⽅式 更新原有的数据
POST /dangdang/emp/1/_update
{
"doc":{
"name":"xiaohei"
}
}
2.第⼆种⽅式 添加新的数据
POST /ems/emp/1/_update
{
"doc":{
"name":"xiaohei",
"age":11,
"dpet":"你好部⻔"
}
}
3.第三种⽅式 在原来数据基础上更新
POST /ems/emp/1/_update
{
"script": "ctx._source.age += 5"
}
ES的使⽤语法⻛格为:
///
REST操作 /索引/类型/⽂档id
- 批量索引两个⽂档
PUT /dangdang/emp/_bulk
{“index”:{"_id":“1”}}
{“name”: “John Doe”,“age”:23,“bir”:“2012-12-12”}
{“index”:{"_id":“2”}}
{“name”: “Jane Doe”,“age”:23,“bir”:“2012-12-12”}
- 更新⽂档同时删除⽂档
POST /dangdang/emp/_bulk
{“update”:{"_id":“1”}}
{“doc”:{“name”:“lisi”}}
{“delete”:{"_id":2}}
10. ES中⾼级检索
10.1 检索⽅式
ES官⽅提供了两中检索⽅式:⼀种是通过 URL 参数进⾏搜索**,另⼀种是通过 DSL(Domain Specifified Language) 进⾏搜索。官⽅更推荐使⽤第⼆种⽅式第⼆种⽅式是基于传递JSON作为请求体(request body)格式与ES**进⾏交互,这种⽅式更强⼤,更简洁。
10.2 测试数据
{“index”:{}}
{“name”:“xxx”,“age”:23}
注意:批量时不会因为⼀个失败⽽全部失败,⼆⼗继续执⾏后续操作,批量在返回时按照执⾏的状态开始返回
1.删除索引
DELETE /ems
2.创建索引并指定类型
PUT /ems
{
“mappings”:{
“emp”:{
“properties”:{
“name”:{
“type”:“text”
},
“age”:{
“type”:“integer”
},
“bir”:{
“type”:“date”
},
“content”:{
“type”:“text”
},
“address”:{
“type”:“keyword”
}
}
}
}
10.2 URL检索
GET /ems/emp/_search?q=*&sort=age:asc_search 搜索的API q=* 匹配所有⽂档 sort 以结果中的指定字段排序
10.3 DSL检索
NOTE: 以下重点讲解DSL语法
}
3.插⼊测试数据
PUT /ems/emp/_bulk
{"index":{}}
{"name":"⼩⿊","age":23,"bir":"2012-12-12","content":"为开发团队选择⼀款优秀的MVC框架是件难事⼉,在众多可⾏的⽅案中决择需要很⾼的经验和⽔平","address":"北京"}
{"index":{}}
{"name":"王⼩⿊","age":24,"bir":"2012-12-12","content":"Spring 框架是⼀个分层架构,由 7 个定义良好的模块组成。Spring 模块构建在核⼼容器之上,核⼼容器定义了创建、配置和管理 bean 的⽅式","address":"上海"}
{"index":{}}
{"name":"张⼩五","age":8,"bir":"2012-12-12","content":"Spring Cloud 作为Java 语⾔的微服务框架,它依赖于Spring Boot,有快速开发、持续交付和容易部署等特点。Spring Cloud 的组件⾮常多,涉及微服务的⽅⽅⾯⾯,井在开源社区Spring 和Netflix 、Pivotal 两⼤公司的推动下越来越完善","address":"⽆锡"}
{"index":{}}
{"name":"win7","age":9,"bir":"2012-12-12","content":"Spring的⽬标是致⼒于全⽅位的简化Java开发。 这势必引出更多的解释, Spring是如何简化Java开发的?","address":"南京"}
{"index":{}}
{"name":"梅超⻛","age":43,"bir":"2012-12-12","content":"Redis是⼀个开源的使⽤ANSI C语⾔编写、⽀持⽹络、可基于内存亦可持久化的⽇志型、Key-Value数据库,并提供多种语⾔的API","address":"杭州"}
{"index":{}}
{"name":"张⽆忌","age":59,"bir":"2012-12-12","content":"ElasticSearch是⼀个基于Lucene的搜索服务器。它提供了⼀个分布式多⽤户能⼒的全⽂搜索引擎,基于RESTful web接 ⼝","address":"北京"}
10.4 DSL⾼级检索**(Query)**
0. 查询所有**(match_all)**
match_all关键字**😗* 返回索引中的全部⽂档
1. 查询结果中返回指定条数**(size)**
size 关键字: 指定查询结果中返回指定条数。 默认返回值10条
2. 分⻚查询**(from)**
from 关键字: ⽤来指定起始返回位置,和size关键字连⽤可实现分⻚效果
GET /ems/emp/_search
{
"query": {"match_all": {}},
"sort": [
{
"age": {
"order": "desc"
}
}
]
}
GET /ems/emp/_search
{
"query": { "match_all": {} }
}
GET /ems/emp/_search
{
"query": { "match_all": {} },
"size": 1
}
3. 查询结果中返回指定字段**(_source)** _source 关键字: 是⼀个数组,在数组中⽤来指定展示那些字段
4. 关键词查询**(term)**
term 关键字: ⽤来使⽤关键词查询
NOTE1: 通过使⽤term查询得知ES中默认使⽤分词器为标准分词器**(StandardAnalyzer),标准分词器对于英⽂单词分词,**对于中⽂单字分词。
NOTE2: 通过使⽤term查询得知**,在ES的Mapping Type** 中 keyword , date ,integer, long ,
double , boolean or ip 这些类型不分词,只有text类型分词。
GET /ems/emp/_search
{
"query": {"match_all": {}},
"sort": [
{
"age": {
"order": "desc"
}
}
],
"size": 2,
"from": 1
}
GET /ems/emp/_search
{
"query": { "match_all": {} },
"_source": ["account_number", "balance"]
}
GET /ems/emp/_search
{
"query": {
"term": {
"address": {
"value": "北京"
}
}
}
}
5. 范围查询**(range)**
range 关键字: ⽤来指定查询指定范围内的⽂档
6. 前缀查询**(prefifix)**
prefifix 关键字: ⽤来检索含有指定前缀的关键词的相关⽂档
7. 通配符查询**(wildcard)**
wildcard 关键字: 通配符查询 ? ⽤来匹配⼀个任意字符 ***** ⽤来匹配多个任意字符
GET /ems/emp/_search
{
"query": {
"range": {
"age": {
"gte": 8,
"lte": 30
}
}
}
}
GET /ems/emp/_search
{
"query": {
"prefix": {
"content": {
"value": "redis"
}
}
}
}
GET /ems/emp/_search
{
"query": {
"wildcard": {
"content": {
"value": "re*"
}
}
}
}
8. 多id查询**(ids)**
ids 关键字 : 值为数组类型,⽤来根据⼀组id获取多个对应的⽂档
9. 模糊查询**(fuzzy)**
fuzzy 关键字: ⽤来模糊查询含有指定关键字的⽂档
10. 布尔查询**(bool)**
bool 关键字: ⽤来组合多个条件实现复杂查询
must: 相当于**&&** 同时成⽴
should: 相当于**||** 成⽴⼀个就⾏
must_not: 相当于**!** 不能满⾜任何⼀个
11. ⾼亮查询
highlight 关键字: 可以让符合条件的⽂档中的关键词⾼亮
⾃定义⾼亮html标签: 可以在highlight中使⽤ pre_tags 和 post_tags
“must_not”: [
{“wildcard”: {
“content”: {
“value”: “redi?”
}
}}
]
}
},
“sort”: [
{
“age”: {
“order”: “desc”
}
}
]
}
GET /ems/emp/_search
{
“query”: {
“term”: {
“content”: {
“value”: “redis”
}
}
},
“highlight”: {
“fields”: {
“*”: {}
}
}
}
GET /ems/emp/_search
{
“query”:{
“term”:{
“content”:“框架”
}
},
“highlight”: {
11. IK分词器
NOTE: 默认ES中采⽤标准分词器进⾏分词**,这种⽅式并不适⽤于中⽂⽹站,因此需要修改ES**对中
⽂友好分词**,**从⽽达到更加的搜索的效果。
在线安装IK
在线安装IK (v5.5.1版本后开始⽀持在线安装 )
NOTE: 要求版本严格与当前使⽤版本⼀致**,**如需使⽤其他版本替换 6.2.4 为使⽤的版本号
本地安装IK
“pre_tags”: [""],
“post_tags”: [""],
“fields”: {
“*”:{}
}
}
}
\1. 在es安装⽬录中执⾏如下命令
[es@linux elasticsearch-6.2.4]$ ./bin/elasticsearch-plugin install
https://github.com/medcl/elasticsearch-analysis
ik/releases/download/v6.2.4/elasticsearch-analysis-ik-6.2.4.zip
-> Downloading https://github.com/medcl/elasticsearch-analysis
ik/releases/download/v6.2.4/elasticsearch-analysis-ik-6.2.4.zip
[=================================================] 100%
-> Installed analysis-ik
[es@linux elasticsearch-6.2.4]$ ls plugins/
analysis-ik
[es@linux elasticsearch-6.2.4]$ cd plugins/analysis-ik/
[es@linux analysis-ik]$ ls
commons-codec-1.9.jar elasticsearch-analysis-ik-6.2.4.jar httpcore-
4.4.4.jar
commons-logging-1.2.jar httpclient-4.5.2.jar plugin
descriptor.properties
\2. 重启es⽣效可以将对应的IK分词器下载到本地,然后再安装
测试IK分词器
NOTE: IK分词器提供了两种mapping类型⽤来做⽂档的分词分别是 ik_max_word 和
ik_smart
ik_max_word 和 ik_smart 什么区别?
ik_max_word: 会将⽂本做最细粒度的拆分 ,⽐如会将“中华⼈⺠共和国国歌”拆分为“中华⼈⺠
共和国,中华⼈⺠,中华,华⼈,⼈⺠共和国,⼈⺠,⼈,⺠,共和国,共和,和,国国,国歌”,会穷尽各种可能
的组合;
ik_smart: 会做最粗粒度的拆分 ,⽐如会将“中华⼈⺠共和国国歌”拆分为“中华⼈⺠共和国,国
歌”。
测试数据
\1. 下载对应版本
[es@linux ~]$ wget https://github.com/medcl/elasticsearch-analysis
ik/releases/download/v6.2.4/elasticsearch-analysis-ik-6.2.4.zip
\2. 解压
[es@linux ~]$ unzip elasticsearch-analysis-ik-6.2.4.zip #先使⽤yum
install -y unzip
\3. 移动到es安装⽬录的plugins⽬录中
[es@linux ~]$ ls elasticsearch-6.2.4/plugins/
[es@linux ~]$ mv elasticsearch elasticsearch-6.2.4/plugins/
[es@linux ~]$ ls elasticsearch-6.2.4/plugins/
elasticsearch
[es@linux ~]$ ls elasticsearch-6.2.4/plugins/elasticsearch/
commons-codec-1.9.jar config
httpclient-4.5.2.jar plugin-descriptor.properties
commons-logging-1.2.jar elasticsearch-analysis-ik-6.2.4.jar
httpcore-4.4.4.jar
\4. 重启es⽣效
DELETE /ems
PUT /ems
{
“mappings”:{
“emp”:{
“properties”:{
“name”:{
“type”:“text”, “analyzer”: “ik_max_word”,
“search_analyzer”: “ik_max_word”
},
“age”:{
“type”:“integer”
},
“bir”:{
“type”:“date”
},
“content”:{
“type”:“text”,
“analyzer”: “ik_max_word”,
“search_analyzer”: “ik_max_word”
},
“address”:{
“type”:“keyword”
}
}
}
}
}
PUT /ems/emp/_bulk
{“index”:{}}
{“name”:“⼩⿊”,“age”:23,“bir”:“2012-12-12”,“content”:"为开发团队选择⼀款优秀
的MVC框架是件难事⼉,在众多可⾏的⽅案中决择需要很⾼的经验和⽔平",“address”:“北京”}
{“index”:{}}
{“name”:“王⼩⿊”,“age”:24,“bir”:“2012-12-12”,“content”:"Spring 框架是⼀个分
层架构,由 7 个定义良好的模块组成。Spring 模块构建在核⼼容器之上,核⼼容器定义了创建、配
置和管理 bean 的⽅式",“address”:“上海”}
{“index”:{}}
{“name”:“张⼩五”,“age”:8,“bir”:“2012-12-12”,“content”:"Spring Cloud 作为
Java 语⾔的微服务框架,它依赖于Spring Boot,有快速开发、持续交付和容易部署等特点。
Spring Cloud 的组件⾮常多,涉及微服务的⽅⽅⾯⾯,井在开源社区Spring 和Netflix 、
Pivotal 两⼤公司的推动下越来越完善",“address”:“⽆锡”}
{“index”:{}}
{“name”:“win7”,“age”:9,“bir”:“2012-12-12”,“content”:"Spring的⽬标是致⼒于全
⽅位的简化Java开发。 这势必引出更多的解释, Spring是如何简化Java开发
的?",“address”:“南京”}
{“index”:{}}
{“name”:“梅超⻛”,“age”:43,“bir”:“2012-12-12”,“content”:"Redis是⼀个开源的使
⽤ANSI C语⾔编写、⽀持⽹络、可基于内存亦可持久化的⽇志型、Key-Value数据库,并提供多种语
⾔的API",“address”:“杭州”}
{“index”:{}}
{“name”:“张⽆忌”,“age”:59,“bir”:“2012-12-12”,“content”:"ElasticSearch是⼀个
基于Lucene的搜索服务器。它提供了⼀个分布式多⽤户能⼒的全⽂搜索引擎,基于RESTful web接
⼝",“address”:“北京”}配置扩展词
IK⽀持⾃定义 扩展词典 和 停⽤词典 ,所谓 扩展词典 就是有些词并不是关键词,但是也希望被ES⽤
来作为检索的关键词,可以将这些词加⼊扩展词典。 停⽤词典 就是有些词是关键词,但是出于业
务场景不想使⽤这些关键词被检索到,可以将这些词放⼊停⽤词典。
如何定义扩展词典和停⽤词典可以修改IK分词器中 config ⽬录中 IKAnalyzer.cfg.xml 这个
⽂件。
NOTE:词典的编码必须为UTF-8,否则⽆法⽣效
GET /ems/emp/_search
{
“query”:{
“term”:{
“content”:“框架”
}
},
“highlight”: {
“pre_tags”: [""],
“post_tags”: [""],
“fields”: {
“*”:{}
}
}
}