ES
1.初步检索
1、_ cat
GET _ cat/nodes: 查看所有节点
GET _ cat/health: 查看es健康状况
GET _ cat/master: 查看主节点
GET _ cat/indices: 查看所有索引 show databases;
2.索引一个文档(保存)
保存一个数据,保存在哪个索引的哪个类型下,指定用哪个唯一标识
PUT customer/external/1;在customer索引下的external 类型下保存1号数据为
PUT customer/ external/1
{‘name": "John Doe’}
PUT和POST都可以,
POST新增。如果不指定id,会自动生成id。 指定id就会修改这个数据,并新增版本号
发送多次不指定id会自动增长是新增操作,指定id多次发送版本号
新增:不带id;带id但之前没数据
修改:带id,并且有数据
PUT可以新增可以修改。PUT必须指定id;由于PUT需要指定id,我们一般都用来做修改操作,不指定id会报错。发送多次是一个更新操作 ,版本号加一
3、查询文档
GET customer/external/1
结果:
index": “customer”, //在哪个索引
" type": “external”, //在哪个类型
id":“1”, //记录id
version":2, //版本号
seq no’ :1, //并发控制字段,每次更新就会+1,用来做乐观锁,是直接进位10
" primary term : 1, //同上,主分片重新分配,如重启,就会变化
“found”: true,
source":{ //真正的内容
“name”: “John Doe”
}
更新携带?if seq no=0&if_ primary _term=1
4、更新文档
POST customer/ external/1/_ update
{
“doc”:{
“name”: “John Doew”
}
}
必须要带doc文档,然后多次运行同一个结果会对比原来的数据相同则不会改变 版本号不增加
或者
POST customer/ external/1
{
“name”: “John Doe2”
}
不带update不带doc 就不会检查原数据
不断的发送不断的更新成功版本号不断的加上去
或者
PUT customer/ external/1
{
“name”: “John Doe2”
}
put和上面是一样的不带update不带doc
put和posτ (不带update)都会直接更新数据
不同: POST 操作会对比源文档数据,如果相同不会有什么操作,文档
version不增加PUT操作总会将数据重新保存并增加version版本;
带update对比元数据如果一样就不进行任何操作。
看场景;
对于大并发更新,不带update;
对于大并发查询偶尔更新,带update;对比更新,重新计算分配规则。
更新同时增加属性
POST customer/external/1/_ update
{
“doc” :{
“name” : “Jane Doe”," age":20
}
}
PUT和POST不带update也可以
5、删除文档&索引
DELETE customer/external/1
DELETE customer
6、bulk批量API
POST customer/external/_ bulk
{“index”:{"_ id":“1”}}
{“name” : “John Doe” }
{“index”:{"_ id":“2”}}
{"name’ : “Jane Doe” }
语法格式:
{ action: { metadata }}\n
{ request body}\n
{ action: { metadata }}\n
{ request body}\n
复杂实例:
POST /_bulk
{“delete”:{"_index":“website”,"_type":“blog”,"_id":“123”}}
{“create”:{"_index":“website”,"_type":“blog”,"_id":“123”}}
{“title”:“My first blog post”}
{“index”:{"_index":“website”,"_type":“blog”}}
{“title”:“My second blog post”}
{“update”:{"_index":“website”,"_type":“blog”,"_id":“123”}}
{“doc”:{“title”:“My uptate blog post”}}
_retry. on conflict:这个是重试的次数 版本已经废弃
bulk API以此按顺序执行所有的action (动作)。如果一个单个的动作因任何原因而失败,
它将继续处理它后面剩余的动作。当bulk API返回时,它将提供每个动作的状态(与发送
的顺序相同),所以您可以检查是否一个指定的动作是不是失败了。
7、样本测试数据
我准备了一份顾客银行账户信息的虚构的JSON 文档样本。每个文档都有下列的schema
(模式) :
模板地址
四、进阶检索
1、SearchAPI
ES支持两种基本方式检索:
●一个 是通过使用REST request URI 发送搜索参数(uri+检索参数)
●另一个是通过使用REST request body来发送它们(uri+请求体) !
1)、检索信息
GET bank/_ search 检索bank下所有信息,包括type和docs
GET bank/_search?q=*&sort=account_number:asc 请求参数方式检索
响应结果解释:
took . Elasticsearch 执行搜索的时间(毫秒)
time_ out- 告诉我们搜索是否超时
shards- 告诉我们多少个分片被搜索了,以及统计了成功/失败的搜索分片
hits- 搜索结果
hits.total- 搜索结果
hits.hits- 实际的搜索结果数组(默认为前10的文档)
sort- 结果的排序key (键) (没有则按
score 排序)
score和max score - 相关性得分和最高得分(全文检索用)
uri+请求体进行检索
HTTP客户端工具(POSTMAN),get请求不能携带请求体,我们变为post也是-样的我们POST一个JSON风格的查询请求体到。_searchAPl。 需要了解,一旦搜索的结果被返回,Elasticsearch 就完成了这次请求,并且不会维护任何服务端的资源或者结果的cursor (游标)
2、Query DSL
Query DSL官方文档
1)、基本语法格式
Elasticsearch提供了个可以执行 查询的Json风格的DSL (domain-specific language 领域特定语言)。这个被称为Query DSL。该查询语言非常全面,并且刚开始的时候感觉有点复杂,真正学好它的方法是从一些基础的示例开始的。
●一个查询语句 的典型结构
GET bank/_search
{
"query": {
"match_all": {}
},
"sort": [
{
"balance": {
"order": "desc"
}
}
],
"from": 5,
"size": 5,
"_source": ["balance","age"]
}
●query 定义如何查询,
match gall 查询类型[代表查询所有的所有],es 中可以在query中组合非常多的查
询类型完成复杂查询
除了query 参数之外,我们也可以传递其它的参数以改变查询结果。如sort, size
●from+size 限定,完成分页功能
sort排序,多字段排序,会在前序字段相等时后续字段内部排序,否则以前序为准
2)、返回部分字段
GET bank/_search
{
"query": {
"match_all": {}
},
"sort": [
{
"balance": {
"order": "desc"
}
}
],
"from": 5,
"size": 5,
"_source": ["balance","age"] //多个字段
}
3)、match[匹配查询]
基本类型(非字符串),精确匹配
GET bank/_search
{
"query": {
"match": {
"account_number": "20"//数字也是可以的 match用来匹配非字符串的字段就是精确查询
}
}
}
模糊匹配 全文检索 倒排索引 全文检索按照评分进行排序,会对检索条件进行分词匹配
字符串,全文检索
GET bank/_search
{
"query": {
"match": {
"address": "mill"
}
}
}
最终查询出address中包含mill单词的所有记录
match当搜索字符串类型的时候,会进行全文检索,并且每条记录有相关性得分。
字符串,多个单词(分词+全文检索)
GET bank/_search
{
"query": {
"match": {
"address": "mill road"
}
}
}
最终查询出address中包含mill或者road或者mill road的所有记录,并给出相关性得分
GET bank/_search
{
"query": {
"match": {
"address": "kings"
}
}
}
4)、match_ phrase [ 短语匹配]
将需要匹配的值当成一个整体单词(不分词)进行检索
GET bank/_search
{
"query": {
"match_phrase": {
"address": "mill road"
}
}
}
查出address中包含millroad 的所有记录,并给出相关性得分
5)、multi match [ 多字段匹配]
GET bank/_search
{
"query": {
"multi_match": {
"query": "mill movico", //这个也可以进行分词 这两个属性的任何一个"state","address"包含"mill movico",都可以
"fields": ["state","address"]
}
}
}
6)、bool[复合查询]
bool用来做复合查询: 在query下面进行复合查询进行多个的字段匹配
复合语句可以合并任何其它查询语句,包括复合语句,了解这一点是很重要的。这就意味
着,复合语句之间可以互相嵌套,可以表达非常复杂的逻辑。
must:必须达到must列举的所有条件
GET bank/_search
{
"query": {
"bool": {
"must": [
{ "match": {
"gender": "F"
}},
{"match": {
"address":"mill"
}}
]
}
}
}
must_ not必须不是指定的情况
GET bank/_search
{
"query": {
"bool": {
"must": [
{ "match": {
"gender": "F"
}},
{"match": {
"address":"mill"
}}
],
"must_not": [
{"match": {
"age": "38"
}}
]
}
}
}
GET bank/_search
{
"query": {
"bool": {
"must": [
{ "match": {
"gender": "F"
}},
{"match": {
"address":"mill"
}}
],
"must_not": [
{"match": {
"age": "28"
}}
],
"should": [ //匹配上最好 没匹配上也要把这个字段的查出来 满足得分会变高
{"match": {
"lastname": "Wallace"
}}
]
}
}
}
事件描述
must 子句(查询)必须出现在匹配的文档中,并将有助于得分,
filter 子句(查询) 必须出现在匹配的文档中。然而不像 must此查询的分数将被忽略,
should 子句(查询)应出现在匹配文档中,在布尔查询中不包含 must或fiter子句,一个或多个should子句必须有相匹配的文件。四配should条件的最小数目可通过设置minimum. should_ match 参数。
must not子句(查询)不能出现在匹配的文档中。
6).filter [结果过滤]
并不是所有的查询都需要产生分数,特别是那些仅用于"filtering" (过滤)的文档。为了不
计算分数Elasticsearch会自动检查场景并且优化查询的执行。
{
"query": {
"bool": {
"filter": [
{
"range": {
"age": {
"gte": 18,
"lte": 30
}
}
}
]
}
}
}
不会 贡献相关性得分
GET bank/_search
{
"query": {
"bool": {
"must": [
{
"range": {
"age": {
"gte": 18,
"lte": 30
}
}
},
{"match": {
"address": "Mill"
}}
]
}
}
}
会进行相关性得分
GET bank/_search
{
"query": {
"bool": {
"must": [
{ "match": {
"gender": "F"
}},
{"match": {
"address":"mill"
}}
],
"must_not": [
{"match": {
"age": "18"
}}
],
"should": [
{"match": {
"lastname": "Wallace"
}}
],
"filter": [
{"range": {
"age": {
"gte": 18,
"lte": 20
}
}}
]
}
}
}
可以先用must来查询再用filter来进行过滤操作
8),term和match-样。匹配某个属性的值。全文检索字段用match,其他非text字段匹配用term.
GET bank/_search
{
"query": {
"term": {
"age":20
}
}
}
比如说数字呀这些非文本的字段 不需要全文检索的 相当于分词是比较困难的不进行分词
match_phrase ==match字段.keyworld 匹配整个字段
GET bank/_search
{
"query": {
"match": {
"address.keyword": "789 Madison Street"//精确匹配的方法
}
}
}
GET bank/_search
{
"query": {
"match_phrase": {
"address": "789 Madison Street"
}
}
}
但是区别是 前者必须完整 后者不完整也可以匹配(分词全文检索一个完整的短语就算)
9)、aggregations (执行聚合)
聚合提供了从数据中分组和提取数据的能力,最简单的聚合方法大致等于SQL GROUP
BY和SQL聚合函数。在Elasticsearch中,您有执行搜索返回hits (命中结果),并且同时返
回聚合结果,把一个响应中的所有hits (命中结果)分隔开的能力。这是非常强大且有效的,您可以执行查询和多个聚合,并且在一次使用中得到各自的(任何一个的)返回结果,使用一次简洁和简化的API来避免网络往返。
相当于mysql的聚合函数
1.搜索address中包含mill的所有人的年龄分布以及平均年龄,但不显示这些人的详情。
GET bank/_search
{
"query": {
"match": {
"address": "mill"
}
},
"aggs": { //采用聚合函数
"ageAgg": { //聚合的名字
"terms": { //聚合的类型 返回age的值得可能性
"field": "age", //按照年龄来聚合
"size": 10 //只要前面的10种结果
}
}
}
}
按照年龄聚合,并且请求这些年龄段的这些人的平均薪资 子聚合
GET bank/_search
{
"query": {
"match_all": {}
},
"aggs": {
"ageAgg": {
"terms": {
"field": "age",
"size": 100
},
"aggs": {
"ageAvg": {
"avg": {
"field": "balance"
}
}
}
}
}
}
查出所有年龄分布,并且这些年龄段中M的平均薪资和F的平均薪资以及这个年龄
段的总体平均薪资
GET bank/_search
{
"query": {
"match_all": {}
},
"aggs": {
"ageAgg": {
"terms": {
"field": "age",
"size": 100
},
"aggs": {
"genderAgg": {
"terms": {
"field": "gender.keyword",
"size": 10
},
"aggs": {
"balanceAvg": {
"avg": {
"field": "balance"
}
}
}
},
"agebalanceAvg":{
"avg": {
"field": "balance"
}
}
}
}
}
}
3、Mapping
1)、字段类型
2)、映射
Mapping (映射)
Mapping是用来定义一个文档(document),以及它所包含的属性(field) 是如何存储和
索引的。比如,使用mapping来定义:
哪些字符串属性应该被看做全文本属性(full text fields)。
哪些属性包含数字,日期或者地理位置。
文档中的所有属性是否都能被索引(all配置)。
日期的格式。
自定义映射规则来执行动态添加属性。
查看mapping信息:
GET bank/ mapping
修改mapping信息
https://www.elastic.co/ guide/en/elasticsearch/reference/current/mapping.html
6.0已经移除了类型
移除类型的原因:
ElasticSearch7-去掉type概念
●关系型数据库中两个数据表示是独立的,即使他们里面有相同名称的列也不影响使用,
但ES中不是这样的。elasticsearch是 基于Lucene开发的搜索引擎,而ES中不同type
下名称相同的filed最终在Lucene中的处理方式是一样的。
●两个不同type下的两个user_ name,在ES同一一个索引下其实被认为是同一-个filed,
你必须在两个不同的type中定义相同的filed映射。否则,不同type中的相同字段
名称就会在处理中出现冲突的情况,导致Lucene处理效率下降。
●去掉type就是为了提高ES处理数据的效率。
. Elasticsearch 7.x
●URL中的type参数为可选。比如,索引-一个文档不再要求提供文档类型。
●Elasticsearch 8.x
.不再支持URL中的type参数。
.解决:将索引从多类型迁移到单类型,每种类型文档-一个独立索引
类型也有是文档类型的子属性:keyword
{
"bank" : {
"mappings" : {
"properties" : {
"account_number" : {
"type" : "long"
},
"address" : {
"type" : "text",
"fields" : {
"keyword" : {
"type" : "keyword",
"ignore_above" : 256
}
}
}
类型可能不是自己想要的所以可以自己来指定映射规则
自定义类型
1、创建映射
PUT /my_index
{
"mappings": {
"properties": {
"age":{"type": "integer"},
"email":{"type": "keyword"},
"name":{"type": "text"}
}
}
}
2、添加新的字段映射
PUT /my_index/_mapping
{
"properties": {
"employee-id": {
"type": "keyword",
"index": false ## 指定不能用employee-id来检索
}
}
}
3、更新映射
对于已经存在的映射字段,我们不能更新。更新必须创建新的索引进行数据迁移
4、数据迁移
先创建出new_ twitter 的正确映射。然后使用如下方式进行数据迁移
PUT /newbank
{
"mappings": {
"properties": {
"account_number": {
"type": "long"
},
"address": {
"type": "text"
},
"age": {
"type": "integer"
},
"balance": {
"type": "long"
},
"city": {
"type": "keyword"
},
"email": {
"type": "keyword"
},
"employer": {
"type": "keyword"
},
"firstname": {
"type": "text"
},
"gender": {
"type": "keyword"
},
"lastname": {
"type": "text",
"fields": {
"keyword": {
"type": "keyword",
"ignore_above": 256
}
}
},
"state": {
"type": "keyword"
}
}
}
}
带类型的搬家6.0之前
POST _reindex
{
"source": {
"index": "bank",
"type": "account"
},
"dest": {
"index":"newbank"
}
}
4、分词
一个tokenizer (分词器)接收一一个字符流,将之分割为独立的tokens (词元,通常是独立
的单词),然后输出tokens流。
例如,whitespace tokenizer遇到空白字符时分割文本。它会将文本"Quick brown fox!"分割
为[Quick, brown, fox!]。
该tokenizer (分词器)还负责记录各个
term
(词条)的顺序或p
position
位置(用于phrase短
语和word proximity词近邻查询),以及term (词条)所代表的原始word (单词)的start
(起始)和end (结束)的character offsets (字符偏移量) (用于 高亮显示搜索的内容)。
Elasticsearch提供了很多内置的分词器,可以用来构建custom analyzers (自定义分词器)。
POST _analyze
{
"analyzer": "standard",
"text": "尚硅谷电商项目"
}
默认分词器
1)、安装ik分词器
先进入这个目录:
cd /etc/sysconfig/network-scripts/
ip addr 和 eth1和192.168.56.10有关系
vi if-itcfg-eth1
service network restart
yum install wget
五、Elasticsearch-Rest-Client
1)、9300: TCP
●spring-data-elasticsearch:transport-api.jar;
■springboot 版本不同,transport-apijar 不同,不能适配es版本
■7.x 已经不建议使用,8以后就要废弃
2)、9200: HTTP
●JestClient: 非官方,更新慢
RestTemplate:模拟发HTTP请求,ES很多操作需要自己封装,麻烦
●HttpClient: 同上
Elasticsearch-Rest-Client:官方RestClient,封装了ES操作,API层次分明,上手简单
最终选择Elasticsearch-Rest-Client (elasticsearch-rest-high-level-client)
官方文档
@SpringBootTest
class ZyfEsApiApplicationTests {
@Autowired
@Qualifier("restHighLevelClient")
private RestHighLevelClient client;
//测试索引的创建
@Test
void testCreatIndex() throws IOException {
//1.创建索引请求
CreateIndexRequest request = new CreateIndexRequest("kuang_index");
//2.执行创建请求 IndicesClient RequestOptions options 请求后获得响应
CreateIndexResponse createIndexResponse = client.indices().create(request, RequestOptions.DEFAULT);
System.out.println(createIndexResponse);
}
//测试获取索引 判断其是否存在
@Test
void testExitIndex() throws IOException {
GetIndexRequest request = new GetIndexRequest("kuang_index");
boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
System.out.println(exists);
}
//删除索引
@Test
void testExitIndex1() throws IOException {
DeleteIndexRequest request = new DeleteIndexRequest("kuang_index");
AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);
System.out.println(delete.isAcknowledged());
}
//文档的操作
//测试添加文档
@Test
void testAddDocument() throws IOException {
User user = new User("李四", 78);
IndexRequest request = new IndexRequest("kuang_index");
request.source(JSON.toJSONString(user),XContentType.JSON);
IndexResponse index = client.index(request, RequestOptions.DEFAULT);
System.out.println(index.toString());
System.out.println(index.status());
}
//获取文档,判断是否存在get/index/_doc/1
@Test
void testIsExists() throws IOException {
GetRequest getRequest= new GetRequest("kuang_index","1");
//不获取上下文的文档信息将文档信息过滤掉
getRequest.fetchSourceContext(new FetchSourceContext(false));
getRequest.storedFields();//排序的字段
boolean exists = client.exists(getRequest, RequestOptions.DEFAULT);
System.out.println(exists);
}
//获取文档信息
@Test
void testGetDocuments() throws IOException {
GetRequest getRequest= new GetRequest("kuang_index","1");
GetResponse response = client.get(getRequest, RequestOptions.DEFAULT);
System.out.println(response.getSourceAsString());//文档内容
System.out.println(response);//完整的
}
//更新文档信息
@Test
void testUpdateDocument() throws IOException {
UpdateRequest updateRequest = new UpdateRequest("kuang_index","1");
User user = new User("张三是装癖", 52);
updateRequest.doc(JSON.toJSONString(user), XContentType.JSON);
UpdateResponse update = client.update(updateRequest, RequestOptions.DEFAULT);
System.out.println(update.status());
}
//删除文档信息
@Test
void testDeleteDocument() throws IOException {
DeleteRequest deleteRequest = new DeleteRequest("kuang_index", "1");
DeleteResponse delete = client.delete(deleteRequest, RequestOptions.DEFAULT);
System.out.println(delete.status());
}
//真实的项目一般都会批量的插入数据
//更新文档信息
@Test
void testBulkRequest() throws IOException {
BulkRequest bulkRequest = new BulkRequest();
bulkRequest.timeout("10s");
ArrayList<User> list = new ArrayList<>();
list.add(new User("kuangshen1",3));
list.add(new User("kuangshen2",3));
list.add(new User("kuangshen3",3));
list.add(new User("kuangshen4",3));
list.add(new User("kuangshen5",3));
//批处理请求
for (int i = 0; i < list.size(); i++) {
bulkRequest.add(
new IndexRequest("kuang_index")
.id(""+(i+1))
.source(JSON.toJSONString(list.get(i)),XContentType.JSON));
}
BulkResponse bulkResponse = client.bulk(bulkRequest, RequestOptions.DEFAULT);
//是否执行成功 是否失败返回false则执行成功!
System.out.println(bulkResponse.hasFailures());
}
//查询 SearchRequest 搜索请求
//条件构造 SearchBuilder 条件构造
//HighlightBuilder构建高亮
// 精确QueryBuilders.termQuery来实现
//QueryBuilders.matchAllQuery(); 匹配所有
@Test
void testSearch() throws IOException {
//定义一个常量 封装kuang_index
SearchRequest searchRequest = new SearchRequest(ESconst.ES_INDEX);
//构建搜索的条件 构建器
SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
//查询条件我们可以使用QueryBuilders来实现
// 精确QueryBuilders.termQuery来实现
//QueryBuilders.matchAllQuery(); 匹配所有
TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("name", "kuangshen1");
MatchAllQueryBuilder matchAllQueryBuilder = QueryBuilders.matchAllQuery();
sourceBuilder.query(termQueryBuilder);
// sourceBuilder.from();
// sourceBuilder.size();
sourceBuilder.timeout(new TimeValue(60, TimeUnit.SECONDS));
searchRequest.source(sourceBuilder);
SearchResponse searchResponse = client.search(searchRequest, RequestOptions.DEFAULT);
System.out.println(JSON.toJSONString(searchResponse.getHits()));
for (SearchHit hit : searchResponse.getHits().getHits()) {
System.out.println( hit.getSourceAsMap());
}
}
}