版本比较老
提前声明:2.2.1不支持Kibana,要使用2.4.1以上版本,切记切记
设备:三台虚拟机
node1:192.168.152.3
node2:192.168.152.4
node3:192.168.152.5
由于es无法使用root用户启动,需分别创建普通用户(esuser),并且将当前用户切换为该用户
useradd esuser 创建用户
echo esuser | passwd --stdin esuser 设置密码
su esuser 切换成esuser用户
root 用户创建 /opt/es(普通用户无法创建) 执行命令修改文件所属 chown esuser:esuser /opt/es 注意:最好一开始就切换 为esuser用户
操作系统:linux centos6.8
软件:安装jdk1.7.0_79、安装unzip(yum install -y unzip)
操作步骤:
1、下载es安装包(elasticsearch-2.2.1.zip)
2、mkdir -p /opt/es
3、unzip elasticsearch-2.2.1.zip -d /opt/es
4、es客户端展示位json格式,因此增加webUI插件,将/plugins上传到/opt/es/elasticsearch-2.4.6目录下
5、修改配置文件 /opt/es/elasticsearch-2.4.6/config/elasticsearch.yml
---------------cluster-------------------------
cluster.name: hbase-sequece-es 该名称是因为用es为hbase做二级索引使用
----------------node-------------------------------
node.name: node1 (分发后各节点需修改)
----------------network--------------------------------
network.host: 192.168.152.3 (分发后各节点需修改)
http.port:9200 (放开)
末尾增加防脑裂:
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["192.168.152.3","192.168.152.4", "192.168.152.5"]
discovery.zen.ping_timeout: 120s
client.transport.ping_timeout: 60s
将下载的head解压,放到elasticsearch-2.4.6/plugins目录下,下载路径:https://github.com/mobz/elasticsearch-head/archive/master.zip
6、分发其他节点:
scp -r ./elasticsearch-2.4.6/ esuser@node2:`pwd`
scp -r ./elasticsearch-2.4.6/ esuser@node3:`pwd`
分发完成后,修改这两个节点配置文件
完全分布式部署完毕~
安装IK分词器
首先,安装IK分词器插件
下载elasticsearch-analysis-ik-1.8.0,在plugins/下新建路径ik
修改配置文件,plugin-descriptor.properties,将es版本号改为自己安装的ES的版本号
之后分发到其它两个节点上
到此IK分词器整合完毕,重启ES就可以使用了。
安装Marvel管理、监控插件
marvel-agent-2.4.6 license-2.4.6 内网情况下,提前下载好安装包路径如下,也可以在bin目录下执行,
./plugin install license ./plugin install marvel-agent
下载好安装包后解压到plugins/目录下即可
es各节点分发,并且修改配置文件
进入bin目录,启动脚本: [esuser@node1 bin]# ./elasticsearch
访问http://node1:9200/_plugin/head/
完成
安装Kibana
提供了监控Marvel的UI界面
kibana-4.6.2-linux-x64.tar
在我其他文章中有下载路径,以及其他ES版本对应的kibana版本介绍
下载好后解压到任何路径都可以
修改kibana-4.6.2-linux-x64/config/kibana.yml文件
到kibana-4.6.2-linux-x64/bin目录下
安装marvel插件,执行./kibana plugin --install elasticsearch/marvel/latest
安装插件sense,执行./kibana plugin --install elastic/sense
启动./kibana
验证 http://node1:5601
现在新建一个index试一下效果:
新建一个index ,并插入一条数据
curl -XPUT http://192.168.152.3:9200/hbase-phone-log/
curl -XPOST http://192.168.152.3:9200/hbase-phone-log/bj_phone_logs -d '
{
"from_phone_num" : "13051552591",
"user":[ "东哥" , "28" ],
"calltime" : 300,
"calltype" : 1,
"to_phone_num": "13051552592"
}
先看下head
看下kibana监控
试一下IK分词器,直接在head中编译,这样就不用每次在命令行中用curl命令执行了,测试起来比较方便
_analyze?analyzer=ik&pretty=true&text=生活不易,且行且珍惜