071. ElasticSearch 应用场景及核心概念

本文介绍了Elasticsearch的使用场景,如网站搜索、数据分析等,并详细讲解了其作为分布式全文检索引擎的核心概念,包括index、document、mapping、Java客户端、alias以及数据库同步。此外,还探讨了Elasticsearch的映射详解,如字段类型、分词器和多重字段等。
摘要由CSDN通过智能技术生成

1. ES 使用场景


  • 给网站 / APP 添加搜索功能。
  • 存储、分析数据。
  • 管理、交互、分析空间信息,将 ES 用于 GIS。

2. ES 简介


  • Elasticsearch 是一个基于 Lucene 构建的开源、分布式、RESTful 接口全文检索引擎。
  • Elasticsearch 也是一个分布式文档数据库。
  • Elasticsearch 可以在很短的时间内存储、搜索大量数据。
  • Elasticsearch 有很强的水平扩展能力。

3. ES 发展历程


image-20200604075000995

4. ES 架构


image-20200604075109574

5. ES 核心概念


  • 在 ES 最初的设计中,index 被当做类似 DB 的级别,能够对数据进行物理隔离,type 相当于数据库中的表,对数据进行逻辑划分,document 是 ES 中的一条数据记录。

    image-20200614173710839

  • 但这样的设计在 ES5.6 之后开始有了变化,新版本的 ES 会逐步弱化 type 的概念,直到将其移除。

6. ES Java Client


  • Java Low Level REST Client:低级别的 REST 客户端,通过 http 与集群交互,用户需自己编组请求 JSON 串,及解析响应 JSON 串。兼容所有 ES 版本。(https://www.elastic.co/guide/en/elasticsearch/client/java-rest/current/java-rest-low.html)
  • Java High Level REST Client:高级别的 REST 客户端,基于低级别的 REST 客户端,增加了编组请求、解析响应等相关 api,High Level REST Client 中的操作 API 和 java client 大多数一样的。
  • Java Client:ES 的发展规划中在 7.0 版本开始将废弃 TransportClient,8.0 版本中将完全移除 TransportClient,取而代之的是 High Level REST Client。

7. index alias 的应用


  • 在 Elasticsearch 中给 index 起一个 alias(别名),能够非常优雅地解决两个索引无缝切换的问题。

  • 可以使用同一个别名指向多个 index,可以实现同时查询多个索引的数据。

8. ES 核心操作


1. index 操作
  • 创建/删除 index、开启/关闭 index、添加/查看 mapping、设置/查看 settings。
# 创建索引
PUT /songs_v3

# 删除索引
DELETE /songs_v3

# 创建 index,指定 settings
PUT /songs_v4
{
  "settings": {
    "number_of_shards": 6,
    "number_of_replicas": 1
  }
}

# 获取 index 的 settings 信息
GET /songs_v4/_settings

# 修改 index 的配置信息
# index 的配置分为两类:
# static(number of shards/index.shard.check_on_startup)
# dynamic(index 正常工作时,能修改的配置信息)
PUT /songs_v4/_settings
{
  "number_of_replicas": 2
}
# index 开启状态,不允许执行
PUT /songs_v4/_settings
{
  "index.shard.check_on_startup": true
}

# 关闭 index
POST /songs_v4/_close

# 开启 index
POST /songs_v4/_open

# 获取 index 中的 mapping types
GET /songs_v4/_mapping

# 删除 mapping_type(不支持)
DELETE /songs_v4/_mapping
2. document 操作
  • 索引/查询/更新/删除 document、搜索 document、执行 script
# 索引文档
# 显示指定文档 ID
PUT /songs_v4/_doc/5
{
  "songName": "could this be love",
  "singer": "Jennifer Lopez",
  "lyrics": "Could This Be love, work up This Morning Just..."
}
# 随机生成文档 ID
POST /songs_v4/_doc
{
  "songName": "could this be love",
  "singer": "Jennifer Lopez",
  "lyrics": "Could This Be love, work up This Morning Just..."
}

# 更新文档
PUT /songs_v4/_doc/5
{
  "songName": "could this be love",
  "singer": "zp",
  "lyrics": "Could This Be love, work up This Morning Just..."
}

# 根据 ID 明确查询某个文档
GET /songs_v4/_doc/5

# 根据 ID 删除文档
DELETE /songs_v4/_doc/5

# 搜索一个文档
GET /songs_v4/_search?q=singer:Jennifer

GET /songs_v4/_mapping

9. 映射详解


1. 映射(mapping)操作
# 创建 index 后,创建 mapping
PUT /books
PUT /books/_mapping
{
  "properties": {
    "bookName": {"type": "text"},
    "content": {"type": "text"}
  }
}
GET /books/_mapping
DELETE /books

# 创建 index,并指定 mapping
PUT /books
{
  "mappings": {
    "properties": {
      "bookName": {"type": "text"},
      "content": {"type": "text"}
    }
  }
}
GET /books/_mapping
DELETE /books

# 给 mapping 添加字段
PUT /books/_mappings
{
  "properties": {
    "author": {"type": "text"}
  }
}
GET /books/_mapping
2. 映射方式
  • ES 中支持静态映射、动态映射两种方式。

  • 通过 dynamic 字段来指定 mapping 的动态效果,dynamic 字段可以有如下选项:

    选项有新增字段的文档索引时
    true(默认值)mapping 会被更新
    falsemapping 不会被更新,新增字段的数据无法被索引,_source 会存储新字段
    strict直接报错
3. 字段类型

官网描述:https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-types.html

4. 映射参数

官网描述:https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-params.html

5. 分词器

https://www.elastic.co/guide/en/elasticsearch/reference/current/analysis-analyzers.html

  • 在 ES 中,一个分析器(Analyzer)由下面三种组件组合而成。
    • character filter:字符过滤器,对文本进行字符过滤处理,如处理文本中的 html 标签字符。处理完后再交给 tokenizer 进行分词。一个 analyzer 中可包含 0 个或多个字符过滤器,多个按配置顺序依次进行处理。
    • tokenizer:分词器,对文本进行分词。一个 analyzer 必须且只可包含一个 tokenizer。
    • token filter:词项过滤器,对 tokenizer 分出的词进行过滤处理。如转小写、停用词处理、同义词处理。一个 analyzer 可包含 0 个或多个词项过滤器,按配置顺序进行过滤。
6. 多重字段
  • 当我们需要对一个字段进行多种不同方式的索引时,可以使用 fields 多重字段定义。如一个字符串字段既需要进行 text 分词索引,也需要进行 keyword 关键字索引来支持排序、聚合;或需要用不同的分词器进行分词索引。
PUT my_index
{
  "mappings": {
    "properties": {
      "city": {
        "type": "text",
        "fields": {
          "raw": {
            "type": "keyword"
          }
        }
      }
    }
  }
}
PUT my_index/_doc/1
{
  "city": "New York"
}

PUT my_index/_doc/2
{
  "city": "York"
}
GET my_index/_search
{
  "query": {
    "match": {
      "city": "york"
    }
  },
  "sort": [
    {
      "city.raw": {
        "order": "asc"
      }
    }
  ],
  "aggs": {
    "citys": {
      "terms": {
        "field": "city.raw"
      }
    }
  }
}
7. doc_values、fielddata、index
  • doc_values:大多数字段进行了反向索引,因此可以用于搜索,但排序、聚合、scripts 操作等需要正向索引。

  • fielddata:大多数字段可利用 doc_values 来进行排序、聚合、scripts 等操作,但 doc_values 不支持 text 字段,text 字段利用 fielddata 机制来替代。(常驻内存,非常昂贵)

  • index:doc_values 指定文档是否进行正向索引,index 指定文档是否进行反向索引。

  • 反向索引,词 -> 文章

    内容包含该词的文章 id
    zp{1,2,5,6,8}
    钓鱼岛{2,3,9,11}
    火锅{1,2,8,9}
    中国{2,9}
  • 正向索引,文章 -> 词

    文章 idAge 字段包含的关键词
    124
    228
    324
    428
8. store
  • 默认情况下,_source 会存储文档所有的字段,当一个字段的 store 属性设置为 true 时,ES 会单独存储一份该字段。
  • 使用场景,比如书籍,content 字段会保存几百万个字符,在几百万字符中提取 name、author 是很麻烦的事情,所以会考虑将 content 字段通过 store 存储。
PUT books
{
  "mappings": {
    "properties": {
      "name": {"type": "text"},
      "author": {"type": "text"},
      "content": {"type": "text", "store": true}
    },
    "_source": {
      "excludes": [
        "content"  
      ]
    }
  }
}
9. 元字段
字段名说明
_index文档所属的 index
_id文档的 id
_type文档所属的 type
_uid_type#_id 的组合
_source文档的原生 json 字符串
_all自动组合所有的字段值,已过时
_field_names索引了每个字段的名称
_parent指定文档之间父子关系,已过时
_routing将一个文档根据路由存储到指定分片上
_meta用于自定义元数据

10. 同步 DB 数据到 ES


  • 市面上讨论,将数据从 DB 同步到 ES 有 logstash-input-jdbc、go-mysql-elasticsearch、elasticsearch-jdbc,我们选用 logstash-input-jdbc 来实现数据迁移。

image-20200702082237485

  1. 解压 logstash 安装包。

  2. 进入 bin 目录,执行命令:./logstash -e 'input { stdin {} } output { stdout {} }'

  3. 继续输入 HelloWorld,看到输出信息,即为安装成功。推出。

  4. 安装 ruby、gem。

  5. 修改 logstash 根目录下的 Gemfile 文件。(修改国内镜像)

    source "http://gems.ruby-china.com"
    
  6. 修改 logstash 根目录下的 Gemfile.lock 文件。(修改国内镜像)

    GEM remote: http://gems.ruby-china.com
    
  7. 安装 logstash-input-jdbc。

    bin/logstash-plugin install logstash-input-jdbc
    
  8. kibana 创建 songs_v11 索引。

    PUT /songs_v11
    
  9. 数据库创建 music 数据库,创建 songs 表

    create database music;
    create table songs(
    	song_id int primary key auto_increment,
    	song_name varchar(18),
    	singer varchar(18),
    	lyrics varchar(3000),
    	create_time datetime
    );
    
  10. 配置 logstash-input-jdbc,创建 jdbc_conf 文件夹。

  11. 进入 jdbc_conf 文件夹,添加文件 jdbc.conf

    input {
    	stdin {
    	}
    	jdbc {
    		jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/music"
    		jdbc_user => "music"
    		jdbc_password => "music"
    		jdbc_driver_library => "/root/mysql-connector-java-5.1.28.jar"
    		jdbc_driver_class => "com.mysql.jdbc.Driver"
    		jdbc_paging_enabled => "true"
    		jdbc_page_size => "50000"
    
    		statement => "select song_id, song_name, singer, lyrics, create_time from music.songs where create_time >= :sql_last_value"
    		schedule => "* * * * *"
    		type => "jdbc"
    		lowercase_column_names => "false"
    	}
    }
    
    filter {}
    
    output {
    	elasticsearch {
    		hosts => ["127.0.0.1:9200"]
    		index => "songs_v11"
    		document_id => "%{song_id}"
    		template_overwrite => true
    	}
    	stdout {
    		codec => json_lines
    	}
    }
    
  12. 启动 logstash

    bin/logstash -f jdbc_conf/jdbc.conf
    
  13. 向 mysql 添加数据,然后查看 ES 索引看有没有数据。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值