ES

ES

1.初步检索

1、_ cat

GET _ cat/nodes: 查看所有节点
GET _ cat/health: 查看es健康状况
GET _ cat/master: 查看主节点
GET _ cat/indices: 查看所有索引 show databases;

2.索引一个文档(保存)

保存一个数据,保存在哪个索引的哪个类型下,指定用哪个唯一标识
PUT customer/external/1;在customer索引下的external 类型下保存1号数据为

PUT customer/ external/1
{‘name": "John Doe’}

PUT和POST都可以,
POST新增。如果不指定id,会自动生成id。 指定id就会修改这个数据,并新增版本号
发送多次不指定id会自动增长是新增操作,指定id多次发送版本号
新增:不带id;带id但之前没数据
修改:带id,并且有数据

PUT可以新增可以修改。PUT必须指定id;由于PUT需要指定id,我们一般都用来做修改操作,不指定id会报错。发送多次是一个更新操作 ,版本号加一

3、查询文档

GET customer/external/1

结果:
index": “customer”, //在哪个索引
" type": “external”, //在哪个类型
id":“1”, //记录id
version":2, //版本号
seq no’ :1, //并发控制字段,每次更新就会+1,用来做乐观锁,是直接进位10
" primary
term : 1, //同上,主分片重新分配,如重启,就会变化
“found”: true,
source":{ //真正的内容
“name”: “John Doe”
}
更新携带?if
seq
no=0&if_ primary _term=1
在这里插入图片描述

4、更新文档

POST customer/ external/1/_ update
{
“doc”:{
“name”: “John Doew”
}
}
必须要带doc文档,然后多次运行同一个结果会对比原来的数据相同则不会改变 版本号不增加

或者

POST customer/ external/1
{
“name”: “John Doe2”
}
不带update不带doc 就不会检查原数据
不断的发送不断的更新成功版本号不断的加上去

或者

PUT customer/ external/1
{
“name”: “John Doe2”
}
put和上面是一样的不带update不带doc
put和posτ (不带update)都会直接更新数据

不同: POST 操作会对比源文档数据,如果相同不会有什么操作,文档
version不增加PUT操作总会将数据重新保存并增加version版本;
带update对比元数据如果一样就不进行任何操作。
看场景;
对于大并发更新,不带update;
对于大并发查询偶尔更新,带update;对比更新,重新计算分配规则。

更新同时增加属性
POST customer/external/1/_ update
{
“doc” :{
“name” : “Jane Doe”," age":20
}
}

PUT和POST不带update也可以

5、删除文档&索引

DELETE customer/external/1
DELETE customer

6、bulk批量API

POST customer/external/_ bulk
{“index”:{"_ id":“1”}}
{“name” : “John Doe” }
{“index”:{"_ id":“2”}}
{"name’ : “Jane Doe” }

语法格式:
{ action: { metadata }}\n
{ request body}\n
{ action: { metadata }}\n
{ request body}\n

复杂实例:
POST /_bulk
{“delete”:{"_index":“website”,"_type":“blog”,"_id":“123”}}
{“create”:{"_index":“website”,"_type":“blog”,"_id":“123”}}
{“title”:“My first blog post”}
{“index”:{"_index":“website”,"_type":“blog”}}
{“title”:“My second blog post”}
{“update”:{"_index":“website”,"_type":“blog”,"_id":“123”}}
{“doc”:{“title”:“My uptate blog post”}}

_retry. on conflict:这个是重试的次数 版本已经废弃

bulk API以此按顺序执行所有的action (动作)。如果一个单个的动作因任何原因而失败,
它将继续处理它后面剩余的动作。当bulk API返回时,它将提供每个动作的状态(与发送
的顺序相同),所以您可以检查是否一个指定的动作是不是失败了。

7、样本测试数据

我准备了一份顾客银行账户信息的虚构的JSON 文档样本。每个文档都有下列的schema
(模式) :
模板地址

四、进阶检索
1、SearchAPI
ES支持两种基本方式检索:
●一个 是通过使用REST request URI 发送搜索参数(uri+检索参数)
●另一个是通过使用REST request body来发送它们(uri+请求体) !

官方文档地址

搜索文档官方

1)、检索信息

GET bank/_ search 检索bank下所有信息,包括type和docs
GET bank/_search?q=*&sort=account_number:asc 请求参数方式检索

响应结果解释:
took . Elasticsearch 执行搜索的时间(毫秒)
time_ out- 告诉我们搜索是否超时
shards- 告诉我们多少个分片被搜索了,以及统计了成功/失败的搜索分片
hits- 搜索结果
hits.total- 搜索结果
hits.hits- 实际的搜索结果数组(默认为前10的文档)
sort- 结果的排序key (键) (没有则按
score 排序)
score和max
score - 相关性得分和最高得分(全文检索用)

uri+请求体进行检索
在这里插入图片描述
HTTP客户端工具(POSTMAN),get请求不能携带请求体,我们变为post也是-样的我们POST一个JSON风格的查询请求体到。_searchAPl。 需要了解,一旦搜索的结果被返回,Elasticsearch 就完成了这次请求,并且不会维护任何服务端的资源或者结果的cursor (游标)

2、Query DSL
Query DSL官方文档

1)、基本语法格式
Elasticsearch提供了个可以执行 查询的Json风格的DSL (domain-specific language 领域特定语言)。这个被称为Query DSL。该查询语言非常全面,并且刚开始的时候感觉有点复杂,真正学好它的方法是从一些基础的示例开始的。
●一个查询语句 的典型结构

GET bank/_search
{
  "query": {
    "match_all": {}
  },
  "sort": [
    {
      "balance": {
        "order": "desc"
      }
    }
  ],
  "from": 5,
  "size": 5,
  "_source": ["balance","age"]
}

●query 定义如何查询,
match gall 查询类型[代表查询所有的所有],es 中可以在query中组合非常多的查
询类型完成复杂查询
除了query 参数之外,我们也可以传递其它的参数以改变查询结果。如sort, size
●from+size 限定,完成分页功能
sort排序,多字段排序,会在前序字段相等时后续字段内部排序,否则以前序为准

2)、返回部分字段

GET bank/_search
{
  "query": {
    "match_all": {}
  },
  "sort": [
    {
      "balance": {
        "order": "desc"
      }
    }
  ],
  "from": 5,
  "size": 5,
  "_source": ["balance","age"] 	//多个字段
}

3)、match[匹配查询]

基本类型(非字符串),精确匹配

GET bank/_search
{
  "query": {
    "match": {
      "account_number": "20"//数字也是可以的 match用来匹配非字符串的字段就是精确查询
    }
  }
}

模糊匹配 全文检索 倒排索引 全文检索按照评分进行排序,会对检索条件进行分词匹配

字符串,全文检索

GET bank/_search
{
  "query": {
    "match": {
      "address": "mill"
    }
  }
}

最终查询出address中包含mill单词的所有记录
match当搜索字符串类型的时候,会进行全文检索,并且每条记录有相关性得分。

字符串,多个单词(分词+全文检索)

GET bank/_search
{
  "query": {
    "match": {
      "address": "mill road"
    }
  }
}

最终查询出address中包含mill或者road或者mill road的所有记录,并给出相关性得分

GET bank/_search
{
  "query": {
    "match": {
      "address": "kings"
    }
  }
}

4)、match_ phrase [ 短语匹配]
将需要匹配的值当成一个整体单词(不分词)进行检索

GET bank/_search
{
  "query": {
    "match_phrase": {
      "address": "mill road"
    }
  }
}

查出address中包含millroad 的所有记录,并给出相关性得分

5)、multi match [ 多字段匹配]

GET bank/_search
{
  "query": {
    "multi_match": {
      "query": "mill movico",     //这个也可以进行分词  这两个属性的任何一个"state","address"包含"mill movico",都可以
      "fields": ["state","address"]
    }
  }
}

6)、bool[复合查询]
bool用来做复合查询: 在query下面进行复合查询进行多个的字段匹配
复合语句可以合并任何其它查询语句,包括复合语句,了解这一点是很重要的。这就意味
着,复合语句之间可以互相嵌套,可以表达非常复杂的逻辑。

must:必须达到must列举的所有条件

GET bank/_search
{
  "query": {
    "bool": {
      "must": [
        { "match": {
            "gender": "F"
          }},
        {"match": {
            "address":"mill"
          }}
      ]
    }
  }
}

must_ not必须不是指定的情况

GET bank/_search
{
  "query": {
    "bool": {
      "must": [
        { "match": {
            "gender": "F"
          }},
        {"match": {
            "address":"mill"
          }}
      ],
      "must_not": [
        {"match": {
          "age": "38"
        }}
      ]
    }
  }
}
GET bank/_search
{
  "query": {
    "bool": {
      "must": [
        { "match": {
            "gender": "F"
          }},
        {"match": {
            "address":"mill"
          }}
      ],
      "must_not": [
        {"match": {
          "age": "28"
        }}
      ],
      "should": [ //匹配上最好 没匹配上也要把这个字段的查出来 满足得分会变高
        {"match": {
          "lastname": "Wallace"
        }}
      ]
    }
  }
}

事件描述
must 子句(查询)必须出现在匹配的文档中,并将有助于得分,
filter 子句(查询) 必须出现在匹配的文档中。然而不像 must此查询的分数将被忽略,
should 子句(查询)应出现在匹配文档中,在布尔查询中不包含 must或fiter子句,一个或多个should子句必须有相匹配的文件。四配should条件的最小数目可通过设置minimum. should_ match 参数。
must not子句(查询)不能出现在匹配的文档中。

6).filter [结果过滤]
并不是所有的查询都需要产生分数,特别是那些仅用于"filtering" (过滤)的文档。为了不
计算分数Elasticsearch会自动检查场景并且优化查询的执行。

{
  "query": {
    "bool": {
      "filter": [
        {
          "range": {
            "age": {
              "gte": 18,
              "lte": 30
            }
          }
        }
      ]
    }
  }
}

不会 贡献相关性得分

GET bank/_search
{
  "query": {
    "bool": {
      "must": [
        {
          "range": {
            "age": {
              "gte": 18,
              "lte": 30
            }
          }
        },
        {"match": {
          "address": "Mill"
        }}
      ]
    }
  }
}

会进行相关性得分

GET bank/_search
{
  "query": {
    "bool": {
      "must": [
        { "match": {
            "gender": "F"
          }},
        {"match": {
            "address":"mill"
          }}
      ],
      "must_not": [
        {"match": {
          "age": "18"
        }}
      ],
      "should": [
        {"match": {
          "lastname": "Wallace"
        }}
      ],
      "filter": [
        {"range": {
          "age": {
            "gte": 18,
            "lte": 20
          }
        }}
      ]
    }
  }
}

可以先用must来查询再用filter来进行过滤操作

8),term和match-样。匹配某个属性的值。全文检索字段用match,其他非text字段匹配用term.

GET bank/_search
{
  "query": {
    "term": {
    "age":20
    }
  }
}

比如说数字呀这些非文本的字段 不需要全文检索的 相当于分词是比较困难的不进行分词

match_phrase ==match字段.keyworld 匹配整个字段

GET bank/_search
{
  "query": {
    "match": {
      "address.keyword": "789 Madison Street"//精确匹配的方法
    }
  }
}
GET bank/_search
{
  "query": {
    "match_phrase": {
      "address": "789 Madison Street"
    }
  }
}

但是区别是 前者必须完整 后者不完整也可以匹配(分词全文检索一个完整的短语就算)

9)、aggregations (执行聚合)
聚合提供了从数据中分组和提取数据的能力,最简单的聚合方法大致等于SQL GROUP
BY和SQL聚合函数。在Elasticsearch中,您有执行搜索返回hits (命中结果),并且同时返
回聚合结果,把一个响应中的所有hits (命中结果)分隔开的能力。这是非常强大且有效的,您可以执行查询和多个聚合,并且在一次使用中得到各自的(任何一个的)返回结果,使用一次简洁和简化的API来避免网络往返。
相当于mysql的聚合函数

1.搜索address中包含mill的所有人的年龄分布以及平均年龄,但不显示这些人的详情。

GET bank/_search
{
  "query": {
    "match": {
      "address": "mill"
    }
  },
  "aggs": {    //采用聚合函数
    "ageAgg": {   //聚合的名字
      "terms": {	//聚合的类型 返回age的值得可能性
        "field": "age",	//按照年龄来聚合
        "size": 10		//只要前面的10种结果
      }
    }
  }
}

按照年龄聚合,并且请求这些年龄段的这些人的平均薪资 子聚合

GET bank/_search
{
  "query": {
    "match_all": {}
  },
  "aggs": {
    "ageAgg": {
      "terms": {
        "field": "age",
        "size": 100
      },
      "aggs": {
        "ageAvg": {
          "avg": {
            "field": "balance"
          }
        }
      }
    }
  }
}

查出所有年龄分布,并且这些年龄段中M的平均薪资和F的平均薪资以及这个年龄
段的总体平均薪资

GET bank/_search
{
  "query": {
    "match_all": {}
  },
  "aggs": {
    "ageAgg": {
      "terms": {
        "field": "age",
        "size": 100
      },
        "aggs": {
          "genderAgg": {
            "terms": {
              "field": "gender.keyword",
              "size": 10
            },
            "aggs": {
              "balanceAvg": {
                "avg": {
                  "field": "balance"
                }
              }
            }
          },
          "agebalanceAvg":{
            "avg": {
              "field": "balance"
            }
          }
        }
      }
    }
  }

3、Mapping
1)、字段类型
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
2)、映射
Mapping (映射)
Mapping是用来定义一个文档(document),以及它所包含的属性(field) 是如何存储和
索引的。比如,使用mapping来定义:
哪些字符串属性应该被看做全文本属性(full text fields)。
哪些属性包含数字,日期或者地理位置。
文档中的所有属性是否都能被索引(all配置)。
日期的格式。
自定义映射规则来执行动态添加属性。
查看mapping信息:
GET bank/
mapping
修改mapping信息
https://www.elastic.co/ guide/en/elasticsearch/reference/current/mapping.html
6.0已经移除了类型

移除类型的原因:
ElasticSearch7-去掉type概念
●关系型数据库中两个数据表示是独立的,即使他们里面有相同名称的列也不影响使用,
但ES中不是这样的。elasticsearch是 基于Lucene开发的搜索引擎,而ES中不同type
下名称相同的filed最终在Lucene中的处理方式是一样的。
●两个不同type下的两个user_ name,在ES同一一个索引下其实被认为是同一-个filed,
你必须在两个不同的type中定义相同的filed映射。否则,不同type中的相同字段
名称就会在处理中出现冲突的情况,导致Lucene处理效率下降。
●去掉type就是为了提高ES处理数据的效率。
. Elasticsearch 7.x
●URL中的type参数为可选。比如,索引-一个文档不再要求提供文档类型。
●Elasticsearch 8.x
.不再支持URL中的type参数。
.解决:将索引从多类型迁移到单类型,每种类型文档-一个独立索引
类型也有是文档类型的子属性:keyword

{
  "bank" : {
    "mappings" : {
      "properties" : {
        "account_number" : {
          "type" : "long"
        },
        "address" : {
          "type" : "text",
          "fields" : {
            "keyword" : {
              "type" : "keyword",
              "ignore_above" : 256
            }
          }
        }

类型可能不是自己想要的所以可以自己来指定映射规则

在这里插入图片描述
自定义类型
1、创建映射

PUT /my_index
{
  "mappings": {
    "properties": {
      "age":{"type": "integer"},
      "email":{"type": "keyword"},
      "name":{"type": "text"}
    }
  }
}

2、添加新的字段映射

PUT /my_index/_mapping
{
  "properties": {
    "employee-id": {
      "type": "keyword",
      "index": false  ## 指定不能用employee-id来检索
    }
  }
}

3、更新映射
对于已经存在的映射字段,我们不能更新。更新必须创建新的索引进行数据迁移

4、数据迁移
先创建出new_ twitter 的正确映射。然后使用如下方式进行数据迁移

PUT /newbank
{
  "mappings": {
    "properties": {
      "account_number": {
        "type": "long"
      },
      "address": {
        "type": "text"
      },
      "age": {
        "type": "integer"
      },
      "balance": {
        "type": "long"
      },
      "city": {
        "type": "keyword"
      },
      "email": {
        "type": "keyword"
      },
      "employer": {
        "type": "keyword"
      },
      "firstname": {
        "type": "text"
      },
      "gender": {
        "type": "keyword"
      },
      "lastname": {
        "type": "text",
        "fields": {
          "keyword": {
            "type": "keyword",
            "ignore_above": 256
          }
        }
      },
      "state": {
        "type": "keyword"
      }
    }
  }
}

在这里插入图片描述

带类型的搬家6.0之前
在这里插入图片描述

POST _reindex
{
  "source": {
    "index": "bank",
    "type": "account"
  },
  "dest": {
    "index":"newbank"
  }
}

4、分词

一个tokenizer (分词器)接收一一个字符流,将之分割为独立的tokens (词元,通常是独立
的单词),然后输出tokens流。
例如,whitespace tokenizer遇到空白字符时分割文本。它会将文本"Quick brown fox!"分割
为[Quick, brown, fox!]。
该tokenizer (分词器)还负责记录各个
term
(词条)的顺序或p
position
位置(用于phrase短
语和word proximity词近邻查询),以及term (词条)所代表的原始word (单词)的start
(起始)和end (结束)的character offsets (字符偏移量) (用于 高亮显示搜索的内容)。
Elasticsearch提供了很多内置的分词器,可以用来构建custom analyzers (自定义分词器)。

POST _analyze
{
  "analyzer": "standard",
  "text": "尚硅谷电商项目"
}

默认分词器

1)、安装ik分词器

ik分词器的下载地址

在这里插入图片描述
先进入这个目录:
cd /etc/sysconfig/network-scripts/

ip addr 和 eth1和192.168.56.10有关系

vi if-itcfg-eth1

在这里插入图片描述
service network restart
yum install wget

五、Elasticsearch-Rest-Client
1)、9300: TCP
●spring-data-elasticsearch:transport-api.jar;
■springboot 版本不同,transport-apijar 不同,不能适配es版本
■7.x 已经不建议使用,8以后就要废弃
2)、9200: HTTP
●JestClient: 非官方,更新慢
RestTemplate:模拟发HTTP请求,ES很多操作需要自己封装,麻烦
●HttpClient: 同上
Elasticsearch-Rest-Client:官方RestClient,封装了ES操作,API层次分明,上手简单
最终选择Elasticsearch-Rest-Client (elasticsearch-rest-high-level-client)
官方文档

配置文档的连接

API文档

@SpringBootTest
class ZyfEsApiApplicationTests {

    @Autowired
    @Qualifier("restHighLevelClient")
    private RestHighLevelClient client;

//测试索引的创建
    @Test
    void testCreatIndex() throws IOException {
        //1.创建索引请求
        CreateIndexRequest request = new CreateIndexRequest("kuang_index");
        //2.执行创建请求 IndicesClient  RequestOptions options  请求后获得响应
        CreateIndexResponse createIndexResponse = client.indices().create(request, RequestOptions.DEFAULT);
        System.out.println(createIndexResponse);

    }
    //测试获取索引  判断其是否存在
    @Test
    void testExitIndex() throws IOException {
        GetIndexRequest request = new GetIndexRequest("kuang_index");
        boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
        System.out.println(exists);
    }


    //删除索引
    @Test
    void testExitIndex1() throws IOException {
        DeleteIndexRequest request = new DeleteIndexRequest("kuang_index");
        AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);
        System.out.println(delete.isAcknowledged());

    }

    //文档的操作
    //测试添加文档
@Test
void testAddDocument() throws IOException {
    User user = new User("李四", 78);

    IndexRequest request = new IndexRequest("kuang_index");

    request.source(JSON.toJSONString(user),XContentType.JSON);

    IndexResponse index = client.index(request, RequestOptions.DEFAULT);
    System.out.println(index.toString());
    System.out.println(index.status());
}



//获取文档,判断是否存在get/index/_doc/1
    @Test
    void testIsExists() throws IOException {
        GetRequest getRequest= new GetRequest("kuang_index","1");
        //不获取上下文的文档信息将文档信息过滤掉
        getRequest.fetchSourceContext(new FetchSourceContext(false));
        getRequest.storedFields();//排序的字段

        boolean exists = client.exists(getRequest, RequestOptions.DEFAULT);
        System.out.println(exists);


    }



    //获取文档信息
    @Test
    void testGetDocuments() throws IOException {

        GetRequest getRequest= new GetRequest("kuang_index","1");
        GetResponse response = client.get(getRequest, RequestOptions.DEFAULT);
        System.out.println(response.getSourceAsString());//文档内容
        System.out.println(response);//完整的
    }
    //更新文档信息
    @Test
    void testUpdateDocument() throws IOException {

        UpdateRequest updateRequest = new UpdateRequest("kuang_index","1");
        User user = new User("张三是装癖", 52);
        updateRequest.doc(JSON.toJSONString(user), XContentType.JSON);

        UpdateResponse update = client.update(updateRequest, RequestOptions.DEFAULT);
        System.out.println(update.status());

    }
    //删除文档信息
    @Test
    void testDeleteDocument() throws IOException {

        DeleteRequest deleteRequest = new DeleteRequest("kuang_index", "1");
        DeleteResponse delete = client.delete(deleteRequest, RequestOptions.DEFAULT);
        System.out.println(delete.status());

    }
    //真实的项目一般都会批量的插入数据
    //更新文档信息
    @Test
    void testBulkRequest() throws IOException {

        BulkRequest bulkRequest = new BulkRequest();
        bulkRequest.timeout("10s");
        ArrayList<User> list = new ArrayList<>();
        list.add(new User("kuangshen1",3));
        list.add(new User("kuangshen2",3));
        list.add(new User("kuangshen3",3));
        list.add(new User("kuangshen4",3));
        list.add(new User("kuangshen5",3));

        //批处理请求
        for (int i = 0; i < list.size(); i++) {
            bulkRequest.add(
                    new IndexRequest("kuang_index")
                    .id(""+(i+1))
                    .source(JSON.toJSONString(list.get(i)),XContentType.JSON));
        }
        BulkResponse bulkResponse = client.bulk(bulkRequest, RequestOptions.DEFAULT);
        //是否执行成功  是否失败返回false则执行成功!
        System.out.println(bulkResponse.hasFailures());


    }
    //查询    SearchRequest 搜索请求
    //条件构造 SearchBuilder  条件构造
    //HighlightBuilder构建高亮
    // 精确QueryBuilders.termQuery来实现
    //QueryBuilders.matchAllQuery();  匹配所有
    @Test
    void  testSearch() throws IOException {
        //定义一个常量 封装kuang_index
        SearchRequest searchRequest = new SearchRequest(ESconst.ES_INDEX);

        //构建搜索的条件 构建器
        SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();

        //查询条件我们可以使用QueryBuilders来实现
        // 精确QueryBuilders.termQuery来实现
        //QueryBuilders.matchAllQuery();  匹配所有

        TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("name", "kuangshen1");
        MatchAllQueryBuilder matchAllQueryBuilder = QueryBuilders.matchAllQuery();
        sourceBuilder.query(termQueryBuilder);

//        sourceBuilder.from();
//        sourceBuilder.size();
        sourceBuilder.timeout(new TimeValue(60, TimeUnit.SECONDS));

        searchRequest.source(sourceBuilder);
        SearchResponse searchResponse = client.search(searchRequest, RequestOptions.DEFAULT);

        System.out.println(JSON.toJSONString(searchResponse.getHits()));

        for (SearchHit hit : searchResponse.getHits().getHits()) {
            System.out.println( hit.getSourceAsMap());
        }
    }
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值