当用户想要网上购买商品,一般都会直接搜索来寻找自己想要购买的商品。而商品的数量非常多,而且分类繁杂。如何能正确的显示出用户想要的商品,并进行合理的过滤,尽快促成交易,是搜索系统要研究的核心。
面对这样复杂的搜索业务和数据量,使用传统数据库搜索就显得力不从心,一般我们都会使用全文检索技术,比如:Elasticsearch。
Elasticsearch简介
Elastic有一条完整的产品线及解决方案:Elasticsearch、Kibana、Logstash等,这三个就是大家常说的ELK技术栈。Elastic官网: https://www.elastic.co/cn/
Elastic stack的核心: Elasticsearch是一个分布式的 Restful风格的搜索和数据分析引擎,能够解决不断涌现出的各种用例。作为 Elastic Stack的核心,它集中存储您的数据,帮助您发现意料之中以及意料之外的情况。其具备以下特点:
- 分布式,无需人工搭建集群(solr就需要人为配置,使用Zookeeper作为注册中心)
- Restful风格,一切API都遵循Rest原则,容易上手
- 近实时搜索,数据更新在Elasticsearch中几乎是完全同步的。
Elasticsearch官网: https://www.elastic.co/cn/products/elasticsearch,
安装Elasticsearch
Elasticsearch安装:https://www.elastic.co/cn/downloads/elasticsearch
需要虚拟机JDK1.8及以上:jdk-8u181-linux-x64
安装和配置:
为了模拟真实场景,我们将在linux下安装Elasticsearch。
1.新建一个用户,并切换到新用户
出于安全考虑,elasticsearch默认不允许以root账号运行。
创建用户,并切换到新用户:
useradd leyou
passwd leyou
su - leyou
修改用户所属组以及权限:
chown ly:ly elasticsearch-6.3.0.tar.gz
chmod 755 elasticsearch-6.3.0.tar.gz
2.上传安装包,并解压
我们将安装包上传到:/home/ly
目录
解压缩:
tar -zxvf elasticsearch-6.2.4.tar.gz
我们把目录重命名:
mv elasticsearch-6.3.0/ elasticsearch
进入,查看目录结构:
3.修改配置
进入config目录:cd config
需要修改的配置文件有两个:
Elasticsearch基于Lucene的,而Lucene底层是java实现,因此我们需要配置jvm参数。编辑jvm.options:
vim jvm.options
配置如下:
elasticsearch.yml
vim elasticsearch.yml
修改数据和日志目录:
path.data: /home/ly/elasticsearch/data # 数据目录位置
path.logs: /home/ly/elasticsearch/logs # 日志目录位置
修改绑定的ip:默认只允许本机访问,修改为0.0.0.0后则可以远程访问
network.host: 0.0.0.0 # 绑定到0.0.0.0,允许任何ip来访问
我们把data和logs目录修改指向了elasticsearch的安装目录。但是这两个目录并不存在,因此我们需要创建出来。
进入elasticsearch的根目录,然后创建:
mkdir data
mkdir logs
目前我们是做的单机安装,如果要做集群,只需要在这个配置文件中添加其它节点信息即可。
elasticsearch.yml的其它可配置信息:
属性名 | 说明 |
---|---|
cluster.name | 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。 |
node.name | 节点名,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理 |
path.conf | 设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/ elasticsearch |
path.data | 设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开 |
path.logs | 设置日志文件的存储路径,默认是es根目录下的logs文件夹 |
path.plugins | 设置插件的存放路径,默认是es根目录下的plugins文件夹 |
bootstrap.memory_lock | 设置为true可以锁住ES使用的内存,避免内存进行swap |
network.host | 设置bind_host和publish_host,设置为0.0.0.0允许外网访问 |
http.port | 设置对外服务的http端口,默认为9200。 |
transport.tcp.port | 集群结点之间通信端口 |
discovery.zen.ping.timeout | 设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些 |
discovery.zen.minimum_master_nodes | 主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1 ,比如:有3个符合要求的主结点,那么这里要设置为2 |
运行
进入elasticsearch/bin目录,输入命令:./elasticsearch
,发现报错了,启动失败。
错误1:内核过低
我们使用的是centos6,其linux内核版本为2.6。而Elasticsearch的插件要求至少3.5以上版本。
解决方案:禁用这个插件即可,修改elasticsearch.yml文件,在最下面添加如下配置:
bootstrap.system_call_filter: false
然后重启,再次启动,又出错了:
[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
[2]: max number of threads [1024] for user [ly] is too low, increase to at least [4096]
[3]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
错误2:文件权限不足
我们用的是leyou用户,而不是root,所以文件权限不足。
首先用root用户登录。
然后修改配置文件:
vim /etc/security/limits.conf
添加下面的内容:
* soft nofile 65536
* hard nofile 131072
* soft nproc 4096
* hard nproc 4096
错误3:线程数不够
继续修改配置:
vim /etc/security/limits.d/90-nproc.conf
修改内容:
错误4:进程虚拟内存
vm.max_map_count:限制一个进程可以拥有的VMA(虚拟内存区域)的数量,继续修改配置文件, :
vim /etc/sysctl.conf
添加下面内容:
vm.max_map_count=655360
执行命令:
sysctl -p
5.重启终端窗口
所有错误修改完毕,一定要重启你的 Xshell终端,否则配置无效。
6.启动
再次启动,终于成功了!
可以看到绑定了两个端口:
- 9300:集群节点间通讯接口
- 9200:客户端访问接口
我们在浏览器中访问:http://192.168.56.101:9200
安装kibana
1.什么是Kibana?
Kibana是一个基于Node.js的Elasticsearch索引库数据统计工具,可以利用Elasticsearch的聚合功能,生成各种图表,如柱形图,线状图,饼图等。而且还提供了操作Elasticsearch索引数据的控制台,并且提供了一定的API提示,非常有利于我们学习Elasticsearch的语法。
2.安装
因为Kibana依赖于node,我们的虚拟机没有安装node,而window中安装过。所以我们选择在window下使用kibana。直接解压到特定目录即可。
配置运行:
进入安装目录下的config目录,修改kibana.yml文件:
修改elasticsearch服务器的地址:elasticsearch.url: "http://192.168.42.129:9200"
进入安装目录下的bin目录:
双击运行:发现kibana的监听端口是5601
我们访问:http://127.0.0.1:5601
4.控制台
选择左侧的DevTools菜单,即可进入控制台页面:
在页面右侧,我们就可以输入请求,访问Elasticsearch了。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sSQtRxnT-1615538887147)(assets/1528612514556.png)]
安装ik分词器
将ik分词器的zip包,放到到Elasticsearch目录的plugins目录中:
使用unzip命令解压:
unzip elasticsearch-analysis-ik-6.3.0.zip -d ik-analyzer
然后重启elasticsearch,进行测试:
在kibana控制台输入下面的请求:
POST _analyze
{
"analyzer": "ik_max_word",
"text": "我是中国人"
}
运行得到结果:
{
"tokens": [
{
"token": "我",
"start_offset": 0,
"end_offset": 1,
"type": "CN_CHAR",
"position": 0
},
{
"token": "是",
"start_offset": 1,
"end_offset": 2,
"type": "CN_CHAR",
"position": 1
},
{
"token": "中国人",
"start_offset": 2,
"end_offset": 5,
"type": "CN_WORD",
"position": 2
},
{
"token": "中国",
"start_offset": 2,
"end_offset": 4,
"type": "CN_WORD",
"position": 3
},
{
"token": "国人",
"start_offset": 3,
"end_offset": 5,
"type": "CN_WORD",
"position": 4
}
]
}