乐优商城学习笔记九-Elasticsearch学习(一)

0.学习目标

  • 独立安装Elasticsearch
  • 会使用Rest的API操作索引
  • 会使用Rest的API查询数据
  • 会使用Rest的API聚合数据
  • 掌握Spring Data Elasticsearch使用

1.Elasticsearch介绍和安装

用户访问我们的首页,一般都会直接搜索来寻找自己想要购买的商品。

而商品的数量非常多,而且分类繁杂。如果能正确的显示出用户想要的商品,并进行合理的过滤,尽快促成交易,是搜索系统要研究的核心。

面对这样复杂的搜索业务和数据量,使用传统数据库搜索就显得力不从心,一般我们都会使用全文检索技术,比如之前大家学习过的Solr。

不过今天,我们要讲的是另一个全文检索技术:Elasticsearch。

1.1.简介

1.1.1.Elastic

Elastic官网:https://www.elastic.co/cn/

1526464088259

Elastic有一条完整的产品线:Elasticsearch、Kibana、Logstash等,前面说的三个就是大家常说的ELK技术栈。

1526464220142

1.1.2.Elasticsearch

Elasticsearch官网:https://www.elastic.co/cn/products/elasticsearch

1526464283575

如上所述,Elasticsearch具备以下特点:

  • 分布式,无需人工搭建集群(solr就需要人为配置,使用Zookeeper作为注册中心)
  • Restful风格,一切API都遵循Rest原则,容易上手
  • 近实时搜索,数据更新在Elasticsearch中几乎是完全同步的。

1.1.3.版本

目前Elasticsearch最新的版本是6.2.4,我们就使用这个版本

需要虚拟机JDK1.8及以上

1.2.安装和配置

为了模拟真实场景,我们将在linux Ubuntu 下安装Elasticsearch。

1.2.1.新建一个用户leyou

useradd leyou

设置密码:

passwd leyou

出于安全考虑,elasticsearch默认不允许以root账号运行。

切换用户:

su - leyou

1.2.2.上传安装包,并解压

我们将安装包上传到:/home/ubuntu/leyou目录

1526465700159

解压缩:

tar xvf elasticsearch-6.2.4.tar.gz

1526465823442

我们把目录重命名:

mv elasticsearch-6.2.4/ elasticsearch

1526465823442

进入,查看目录结构:

1526465823442

1.2.3.修改配置

我们进入config目录:cd config

需要修改的配置文件有两个:

1526465823442

修改jvm配置

Elasticsearch基于Lucene的,而Lucene底层是java实现,因此我们需要配置jvm参数

vim jvm.options

默认配置如下:

-Xms1g
-Xmx1g

内存占用太多了,我们调小一些:

-Xms512m
-Xmx512m

修改elasticsearch.yml

sudo vim elasticsearch.yml

修改数据和日志目录:

path.data: /home/ubuntu/leyou/elasticsearch/data # 数据目录位置
path.logs: /home/ubuntu/leyou/elasticsearch/logs # 日志目录位置

修改绑定的ip:
修改绑定的ip:

network.host: 0.0.0.0 # 绑定到0.0.0.0,允许任何ip来访问

默认只允许本机访问,修改为0.0.0.0后则可以远程访问

目前我们是做的单机安装,如果要做集群,只需要在这个配置文件中添加其它节点信息即可。

elasticsearch.yml的其它可配置信息:

属性名说明
cluster.name配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。
node.name节点名,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理
path.conf设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/ elasticsearch
path.data设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开
path.logs设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins设置插件的存放路径,默认是es根目录下的plugins文件夹
bootstrap.memory_lock设置为true可以锁住ES使用的内存,避免内存进行swap
network.host设置bind_host和publish_host,设置为0.0.0.0允许外网访问
http.port设置对外服务的http端口,默认为9200。
transport.tcp.port集群结点之间通信端口
discovery.zen.ping.timeout设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些
discovery.zen.minimum_master_nodes主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1 ,比如:有3个符合要求的主结点,那么这里要设置为2

1.2.4.创建data和logs目录

刚才我们修改配置,把data和logs目录修改指向了elasticsearch的安装目录。但是这两个目录并不存在,因此我们需要创建出来:

进入Elasticsearch的根目录,然后创建:

mkdir data
mkdir logs

1526467246550

1.3.运行

进入elasticsearch/bin目录,可以看到下面的执行文件:

1526467324965

然后输入命令:

./elasticsearch

发现报错了,启动失败:

1.3.1.错误1:内核过低

1526467439804

修改elasticsearch.yml文件,在最下面添加以后配置:

bootstrap.system_call_filter: false

然后重启

1.3.2.错误2:

再次启动,又出错了:

[1]: max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]

我们用的是leyou用户,而不是root,所以文件权限不足。

首先用root用户登录。

然后修改配置文件:

vim /etc/security/limits.conf

添加下面的内容:

* soft nofile 65536

* hard nofile 131072

* soft nproc 4096

* hard nproc 4096

1.3.3.错误3

刚才报错中,还有一行:

[1]: max number of threads [1024] for user [leyou] is too low, increase to at least [4096]

这是线程数不够。

ubuntu继续修改配置:

sudo vim /etc/security/limits.conf 

添加下面的内容:

* soft nofile 65536
* hard nofile 131072
* soft nproc 4096
* hard nproc 4096

查看/etc/security/limits.d目录是否有文件“90-nproc.conf”,没有的话新建该文件,文件

内容写为:


*               soft    nproc          4096
*               hard    nproc          4096

1.3.4.错误4

[3]: max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]

继续修改配置文件:

sudo vim /etc/sysctl.conf 

添加下面内容:

vm.max_map_count=655360

然后执行命令:

sudo sysctl -p

1.3.5.重启终端窗口

所有错误修改完毕,一定要重启你的 Xshell终端,否则配置无效。

1.3.6.启动

再次启动,终于成功了!

1526472722397

可以看到绑定了两个端口:

  • 9300:集群节点间通讯接口
  • 9200:客户端访问接口

1526478245641

1.4.2.安装

因为Kibana依赖于node,我们的虚拟机没有安装node,而window中安装过。所以我们选择在window下使用kibana。

最新版本与elasticsearch保持一致,也是6.2.4

1526481608877

解压即可:

1526482581793

1.4.3.配置运行

配置

进入安装目录下的config目录,修改kibana.yml文件:

修改elasticsearch服务器的地址:

elasticsearch.url: "http://192.168.56.101:9200"

运行

进入安装目录下的bin目录:

1526482642658

双击运行:

1526482862080

发现kibana的监听端口是5601

我们访问:http://127.0.0.1:5601

1526482926798

1.4.4.控制台

选择左侧的DevTools菜单,即可进入控制台页面:

[图片上传失败…(image-119e05-1555557371161)]

在页面右侧,我们就可以输入请求,访问Elasticsearch了。

1526483200872

1.5.安装ik分词器

Lucene的IK分词器早在2012年已经没有维护了,现在我们要使用的是在其基础上维护升级的版本,并且开发为Elasticsearch的集成插件了,与Elasticsearch一起维护升级,版本也保持一致,最新版本:6.2.4

1.5.1.安装

上传课前资料中的zip包,解压到Elasticsearch目录的plugins目录中:

1526482432181

使用unzip命令解压:

unzip elasticsearch-analysis-ik-6.2.4.zip

得到一个名为elasticsearch的目录:

1526482469109

我们将其改名为ik-analyzer

 mv elasticsearch ik-analyzer

然后重启elasticsearch:

1526523386610

1.5.2.测试

大家先不管语法,我们先测试一波。

在kibana控制台输入下面的请求:

POST _analyze
{
  "analyzer": "ik_smart",
  "text":     "我是小武"
}

运行得到结果:

{
  "tokens": [
    {
      "token": "我",
      "start_offset": 0,
      "end_offset": 1,
      "type": "CN_CHAR",
      "position": 0
    },
    {
      "token": "是",
      "start_offset": 1,
      "end_offset": 2,
      "type": "CN_CHAR",
      "position": 1
    },
    {
      "token": "小",
      "start_offset": 2,
      "end_offset": 3,
      "type": "CN_CHAR",
      "position": 2
    },
    {
      "token": "武",
      "start_offset": 3,
      "end_offset": 4,
      "type": "CN_CHAR",
      "position": 3
    }
  ]
}

1.7.API

Elasticsearch提供了Rest风格的API,即http请求接口,而且也提供了各种语言的客户端API

1.7.1.Rest风格API

文档地址:https://www.elastic.co/guide/en/elasticsearch/reference/current/getting-started.html

1526518410240

1.7.2.客户端API

Elasticsearch支持的客户端非常多:https://www.elastic.co/guide/en/elasticsearch/client/index.html

1526518624942

点击Java Rest Client后,你会发现又有两个:

1526518662013

Low Level Rest Client是低级别封装,提供一些基础功能,但更灵活

High Level Rest Client,是在Low Level Rest Client基础上进行的高级别封装,功能更丰富和完善,而且API会变的简单

1526518875072

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值