微服务框架springcloud(实用篇)【5】Elasticsearch 01

一、初识elasticsearch

1.了解ES

1)elasticsearch的作用

elasticsearch是一款非常强大的开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容

eg:在GitHub搜索代码

2)ELK技术栈

elasticsearch结合kibana、Logstash、Beats,也就是elastic stack(ELK)。被广泛应用在日志数据分析、实时监控等领域

而elasticsearch是elastic stack的核心,负责存储、搜索、分析数据。

3)elasticsearch和lucene

elasticsearch底层是基于lucene来实现的。

Lucene是一个Java语言的搜索引擎类库,是Apache公司的顶级项目,由DougCutting于1999年研发。官网地址:https://lucene.apache.org/

Lucene的优势:易扩展、高性能(基于倒排索引)

Lucene的缺点:只限于Java语言开发、学习曲线陡峭、不支持水平扩展

elasticsearch的发展历史

        2004年Shay Banon基于Lucene开发了Compass

        2010年Shay Banon 重写了Compass,取名为Elasticsearch。

官网地址:http:// https://www.elastic.co/cn/        目前最新的版本是:7.12.1

相比与lucene,elasticsearch具备下列优势

        支持分布式,可水平扩展

        提供Restful接口,可被任何语言调用

4)目前比较知名的搜索引擎技术排名:

Elasticsearch:开源的分布式搜索引擎        Splunk:商业项目        Solr:Apache的开源搜索引擎

虽然在早期,Apache Solr是最主要的搜索引擎技术,但随着发展elasticsearch已经渐渐超越了Solr,独占鳌头:

5)总结

什么是elasticsearch?

        一个开源的分布式搜索引擎,可以用来实现搜索、日志统计、分析、系统监控等功能

什么是elastic stack(ELK)?

        是以elasticsearch为核心的技术栈,包括beats、Logstash、kibana、elasticsearch

什么是Lucene?

        是Apache的开源搜索引擎类库,提供了搜索引擎的核心API

2.倒排索引

倒排索引的概念是基于MySQL这样的正向索引而言的。

1)正向索引

下表(tb_goods)中的id创建索引就是正向索引 :

如果是根据id查询,那么直接走索引,查询速度非常快。

但如果是基于title做模糊查询,只能是逐行扫描数据,流程如下:

        1] 用户搜索数据,条件是title符合`"%手机%"`

        2] 逐行获取数据,比如id为1的数据

        3] 判断数据中的title是否符合用户搜索条件

        4] 如果符合则放入结果集,不符合则丢弃。回到步骤1

逐行扫描,也就是全表扫描,随着数据量增加,其查询效率也会越来越低。当数据量达到数百万时,就是一场灾难。

2)倒排索引

倒排索引中有两个非常重要的概念:

        文档(Document):用来搜索的数据,其中的每一条数据就是一个文档。例如一个网页、一个商品信息

        词条(Term):文档按照语义分成的词语.。例如:我是中国人,就可以分为:我、是、中国人、中国、国人这样的几个词条

创建倒排索引是对正向索引的一种特殊处理,流程如下:

        将每一个文档的数据利用算法分词,得到一个个词条

        创建表,每行数据包括词条、词条所在文档id、位置等信息

        因为词条唯一性,可以给词条创建索引,例如hash表结构索引

倒排索引的搜索流程如下(以搜索"华为手机"为例):

        1] 用户输入条件`"华为手机"`进行搜索。

        2] 对用户输入内容**分词**,得到词条:`华为`、`手机`。

        3] 拿着词条在倒排索引中查找,可以得到包含词条的文档id:1、2、3。

        4] 拿着文档id到正向索引中查找具体文档。

虽然要先查询倒排索引,再查询倒排索引,但是无论是词条、还是文档id都建立了索引,查询速度非常快!无需全表扫描。

3)正向和倒排

        正向索引是最传统的,根据id索引的方式。但根据词条查询时,必须先逐条获取每个文档,然后判断文档中是否包含所需要的词条,是根据文档找词条的过程

        而倒排索引则相反,是先找到用户要搜索的词条,根据词条得到保护词条的文档的id,然后根据id获取文档。是根据词条找文档的过程

正向索引:

优点:可以给多个字段创建索引、根据索引字段搜索、排序速度非常快

缺点:根据非索引字段,或者索引字段中的部分词条查找时,只能全表扫描。

倒排索引:

优点:根据词条搜索、模糊搜索时,速度非常快

缺点:只能给词条创建索引,而不是字段、无法根据字段做排序

什么是文档和词条?

        每一条数据就是一个文档

        对文档中的内容分词,得到的词语就是词条

什么是正向索引?

        基于文档id创建索引。查询词条时必须先找到文档,而后判断是否包含词条

什么是倒排索引?

        对文档内容分词,对词条创建索引,并记录词条所在文档的信息。查询时先根据词条查询到文档id,而后获取到文档

3.es的一些概念

elasticsearch中有很多独有的概念,与mysql中略有差别,但也有相似之处。

1)文档和字段

elasticsearch是面向文档(Document)存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在elasticsearch中:

而Json文档中往往包含很多的字段(Field),类似于数据库中的列。

2)索引和映射

索引(Index),就是相同类型的文档的集合。

例如: 所有用户文档,就可以组织在一起,称为用户的索引;

因此,我们可以把索引当做是数据库中的表。

数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。因此,索引库中就有*映射(mapping),是索引中文档的字段约束信息,类似表的结构约束。

3)mysql与elasticsearch

我们统一的把mysql与elasticsearch的概念做一下对比:

两者各自有自己的擅长支出:

        Mysql:擅长事务类型操作ACID,可以确保数据的安全和一致性

        Elasticsearch:擅长海量数据的搜索、分析、计算

在企业中,往往是两者结合使用:

        对安全性要求较高的写操作,使用mysql实现

        对查询性能要求较高的搜索需求,使用elasticsearch实现

        两者再基于某种方式,实现数据的同步,保证一致性

4.安装es、kibana

1)安装

(参考最下方的elasticsearch安装指南)

2)分词器

(参考最下方的elasticsearch安装指南)

es在创建倒排索引时需要对文档分词;在搜索时,需要对用户输入内容分词。但默认的分词规则对中文处理并不友好。

我们在kibana的DevTools中测试:

POST /_analyze

{

        "analyzer""standard",

        "text""黑马程序员学习java太棒了!"

}

语法说明:

POST:请求方式

/_analyze:请求路径,这里省略了http://192.168.150.101:9200,有kibana帮我们补充

请求参数,json风格:

        analyzer:分词器类型,这里是默认的standard分词器

        text:文本,要分词的内容

处理中文分词,一般会使用IK分词器。https://github.com/medcl/elasticsearch-analysis-ik

安装IK分词器,(参考最下方的elasticsearch安装指南)

ik分词器-拓展词库

要拓展ik分词器的词库,只需要修改一个ik分词器目录中的config目录中的IkAnalyzer.cfg.xml文件

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典 *** 添加扩展词典-->
        <entry key="ext_dict">ext.dic</entry>
</properties>

然后在名为ext.dic的文件中,添加想要拓展的词语即可

ik分词器-停用词库

要禁用某些敏感词条,只需要修改一个ik分词器目录中的config目录中的IkAnalyzer.cfg.xml文件

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典-->
        <entry key="ext_dict">ext.dic</entry>
         <!--用户可以在这里配置自己的扩展停止词字典  *** 添加停用词词典-->
        <entry key="ext_stopwords">stopword.dic</entry>
</properties>

然后在名为stopword.dic的文件中,添加想要拓展的词语即可

3)总结

IK分词器有几种模式?

        ik_smart:智能切分,最少切分,粗粒度

        ik_max_word:最细切分,细粒度

IK分词器如何拓展词条?如何停用词条?

        利用config目录的IkAnalyzer.cfg.xml文件添加拓展词典和停用词典

        在词典中添加拓展词条或者停用词条

二、索引库操作

索引库就类似数据库表,mapping映射就类似表的结构。

我们要向es中存储数据,必须先创建“库”和“表”。

1.mapping映射属性

mapping是对索引库中文档的约束,常见的mapping属性包括:

type:字段数据类型,常见的简单类型有:

        字符串:text(可分词的文本)、keyword(精确值,例如:品牌、国家、ip地址)

        数值:long、integer、short、byte、double、float、

        布尔:boolean

        日期:date

        对象:object

index:是否创建索引,默认为true

analyzer:使用哪种分词器

properties:该字段的子字段

例如下面的json文档:

{
    "age": 21,
    "weight": 52.1,
    "isMarried": false,
    "info": "黑马程序员Java讲师",
    "email": "zy@itcast.cn",
    "score": [99.1, 99.5, 98.9],
    "name": {
        "firstName": "云",
        "lastName": "赵"
    }
}

对应的每个字段映射(mapping):

age:类型为 integer;参与搜索,因此需要index为true;无需分词器

weight:类型为float;参与搜索,因此需要index为true;无需分词器

isMarried:类型为boolean;参与搜索,因此需要index为true;无需分词器

info:类型为字符串,需要分词,因此是text;参与搜索,因此需要index为true;分词器可以用ik_smart

email:类型为字符串,但是不需要分词,因此是keyword;不参与搜索,因此需要index为false;无需分词器

score:虽然是数组,但是我们只看元素的类型,类型为float;参与搜索,因此需要index为true;无需分词器

name:类型为object,需要定义多个子属性

        name.firstName;类型为字符串,但是不需要分词,因此是keyword;参与搜索,因此需要index为true;无需分词器

        name.lastName;类型为字符串,但是不需要分词,因此是keyword;参与搜索,因此需要index为true;无需分词器

2.索引库的CRUD

统一使用Kibana编写DSL的方式

1)创建索引库和映射

基本语法:

        请求方式:PUT

        请求路径:/索引库名,可以自定义

        请求参数:mapping映射

格式:

       PUT /索引库名称
        {
                "mappings": {
                        "properties": {
                        "字段名":{
                                "type": "text",
                                "analyzer": "ik_smart"
                        },
                        "字段名2":{
                                "type": "keyword",
                                "index": "false" 这个字段不参与搜索
                        },
                        "字段名3":{
                                "properties": {
                                        "子字段": {
                                                "type": "keyword"
                                        }
                                }
                        },
                      // ...略
                }        
        }
}

示例:

PUT /heima
{
  "mappings": {
    "properties": {
      "info":{
        "type": "text",
        "analyzer": "ik_smart"
      },
      "email":{
        "type": "keyword",
        "index": "falsae"
      },
      "name":{
        "properties": {
          "firstName": {
            "type": "keyword"
          }
        }
      },
      // ... 略
    }
  }
}

2)查询索引库

基本语法:

        请求方式:GET

        请求路径:/索引库名

        请求参数:无

格式:

        GET /索引库名

示例:

3)修改索引库

倒排索引结构虽然不复杂,但是一旦数据结构改变(比如改变了分词器),就需要重新创建倒排索引,这简直是灾难。因此索引库一旦创建,无法修改mapping

虽然无法修改mapping中已有的字段,但是却允许添加新的字段到mapping中,因为不会对倒排索引产生影响。

语法说明:

PUT /索引库名/_mapping
{
  "properties": {
        "新字段名":{
                "type": "integer"
        }
   }

}

示例:

4)删除索引库

语法:

        请求方式:DELETE

        请求路径:/索引库名

        请求参数:无

格式:

        DELETE /索引库名

在kibana中测试:

5)总结

索引库操作有哪些?

        创建索引库:PUT /索引库名

        查询索引库:GET /索引库名

        删除索引库:DELETE /索引库名

        添加字段:PUT /索引库名/_mapping

3.文档操作

1)新增文档

语法:

POST /索引库名/_doc/文档id

{

    "字段1": "值1",

    "字段2": "值2",

    "字段3": {

        "子属性1": "值3",

        "子属性2": "值4"

    },

    // ...

}

示例:

POST /heima/_doc/1

{

        "info": "黑马程序员Java讲师",

        "email": "zy@itcast.cn",

        "name": {

                "firstName": "云",

                "lastName": "赵"

        }

}

响应:

2)查询文档

根据rest风格,新增是post,查询应该是get,不过查询一般都需要条件,这里我们把文档id带上。

语法:GET /{索引库名称}/_doc/{id}

通过kibana查看数据:GET /heima/_doc/1

查看结果:

3)删除文档

删除使用DELETE请求,同样,需要根据id进行删除:

语法:DELETE /{索引库名}/_doc/id值

示例:# 根据id删除数据DELETE /heima/_doc/1

结果:

4)修改文档

修改有两种方式:

        全量修改:直接覆盖原来的文档

        增量修改:修改文档中的部分字段

1] 全量修改

全量修改是覆盖原来的文档,其本质是:     根据指定的id删除文档、新增一个相同id的文档

注意:如果根据id删除时,id不存在,第二步的新增也会执行,也就从修改变成了新增操作了。

语法:

PUT /{索引库名}/_doc/文档id

{

        "字段1": "值1",

        "字段2": "值2",

        // ... 略

}

示例:

PUT /heima/_doc/1

{

        "info": "黑马程序员高级Java讲师",

        "email": "zy@itcast.cn",

        "name": {

                "firstName": "云",

                "lastName": "赵"

        }

}

2] 增量修改

增量修改是只修改指定id匹配的文档中的部分字段。

语法:

POST /{索引库名}/_update/文档id

{

        "doc": {

                "字段名": "新的值",

        }

}

示例:

POST /heima/_update/1

{

        "doc": {

                "email": "ZhaoYun@itcast.cn"

        }

}

5)总结

文档操作有哪些?

        创建文档:POST /{索引库名}/_doc/文档id   { json文档 }

        查询文档:GET /{索引库名}/_doc/文档id

        删除文档:DELETE /{索引库名}/_doc/文档id

        修改文档:

                全量修改:PUT /{索引库名}/_doc/文档id { json文档 }

                增量修改:POST /{索引库名}/_update/文档id { "doc": {字段}}

四、RestAPI(RestClient操作索引库)

ES官方提供了各种不同语言的客户端,用来操作ES。这些客户端的本质就是组装DSL语句,通过http请求发送给ES   官方文档地址:https://www.elastic.co/guide/en/elasticsearch/client/index.html

其中的Java Rest Client又包括两种:Java Low Level Rest Client        Java High Level Rest Client

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值