摘要:
现在我们已经将logstash和elasticsearch都集成起来了,在上一节的基础上,详见搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十) elasticsearch集群部署,我们直接加上kibana就可以出效果了。
首先我们先根据上一节,部署好logstash和elasticsearch
1、首先,我们下载kibana 5.5.1 点击下载,我下载的是64位GZ压缩包
2、把kibana压缩包放到103和78任一个服务器下,解压kibana,然后修改kibana文件夹下/config/
目录下的kibana.yml
文件,增加下面两行,然后保存。
server.host: "10.45.32.103"
elasticsearch.url: "http://10.45.32.103:9200"
3、在kibana文件夹下运行以下命令:
./bin/kibana
运行成功之后,状态变为green
,如下图
4、在windows中浏览器中输入刚刚填写的server.host(也即是kibana所在服务器的ip),端口为5601(默认),
http://10.45.32.103:5601
如下图:
5、这个界面就是说还没有任何一个索引,我们也没有设置索引,所以默认索引是,并且默认以@timestamp为过滤器,这里我们直接点击create创建,创建成功之后,点击左上角的Discover,
6、这时是没有数据的,然后我在logstash的终端里输入一句nihao
,刷新kibana界面,就可以看到一条数据了,如下图:
7、点击上图圈住的小三角,可以展开查看详细内容,如下图:
这里记录了发送这个消息的时间戳、版本、索引、主机、内容等等。
kibana默认是以logstash+时间
建立索引的,所以刚刚我们直接选择了默认创建索引。
在实际生产中,我们在logstash的filter里根据需求增删改字段名称及内容,这个用我们前面介绍过的logstash插件就可以实现!
搞定!