Elasticsearch 2.x 与 Elasticsearch 1.x 的安装配置过程略有不同,本篇主要讲解2.x版本的安装过程。
因权限问题,本篇不涉及将Elasticsearch、Kibana配置为系统服务来启动,只作为普通用户来运行启动服务。若需将Elasticsearch、Kibana配置为系统服务,参考官网中的教程。
Elasticsearch 2.x要求Java版本>=1.7。若默认版本<1.7,重现安装Java,或者使用
export JAVA_HOME = your_install_path/jdk1.7.0_xx
。
安装、配置Elasticsearch2.x、Marvel
安装Elasticsearch2.x、Marvel
# 从官网下载Elasticsearch2.x,解压并进入Elasticsearch文件夹
tar -zxvf elasticsearch-2.3.1.tar.gz
cd elasticsearch-2.3.1
# 安装Marvel
bin/plugin install license
bin/plugin install marvel-agent
配置Elasticsearch2.x、Marvel
配置Elasticsearch集群主要通过修改config目录下的配置文件elasticsearch.yml进行。config目录下有两个配置文件elasticsearch.yml、logging.yml,分别用来配置elasticsearch服务、配置elasticsearch的日志输出。Elasticsearch的默认配置文件elasticsearch.yml已经能满足大规模集群的使用,只需要修改部分配置即可,我的配置文件如下:
cluster.name: xin-elasticsearch
node.name: node-ip_adrr
network.host: ip_adrr
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["ip_adrr:9300","ip_adrr1:9300","ip_adrr2:9300","ip_adrr3:9300"]
discovery.zen.minimum_master_nodes: 2
marvel.agent.exporter.es.hosts: ["ip_adrr5:9200"]
主要修改配置说明:
cluster.name, # 集群名。同网段内有多个节点,节点之间通过集群名来确认对方是否属于同一集群
node.name, # 节点名。默认自动获取节点名,建议手动设置为有标志性的名字
network.host, # 主机IP。出于安全考虑,2.x版本默认为127.0.0.1
discovery.zen.ping.multicast.enabled,# 多播通信发现集群节点。2.x版本建议关闭该项,会造成局域网流量过大
discovery.zen.ping.unicast.hosts, # 单播通信发现集群节点时,集群中所有elasticsearch节点的地址和端口
discovery.zen.minimun_master_nodes, # 准Master节点数目,当Master节点挂掉后从中选举新Master,该项不必配置。
marvel.agent.exporter.es.hosts, # marvel的地址和端口,也就是Kibana安装的主机的地址和端口
以非系统服务的方式启动Elasticsearch2.x:./bin/elasticsearch -d
安装、配置Kibana
安装Kibana
从官网下载Kibana4.x,解压并进入Kibana文件夹,安装Marvel:bin/kibana plugin --install elasticsearch/marvel/latest
配置Kibana
修改config目录下的配置文件kibana.yml,修改elasticsearch.url为Elasticsearch集群中的任一节点的地址和端口。例如 elasticsearch.url: "http://ip_addr:9200
以非系统服务方式启动Kibana4.x(logs为自定义目录,用来存储Kibana日志):./bin/kibana 1>>logs/kibana.log 2>>logs/kibana.log &