elk监控mysql日志_日志监控工具 ELK

1.Elasticsearch 2.0.0 Install

1-1.下载文件到本地:

wget https://download.elasticsearch.org/elasticsearch/release/org/elasticsearch/distribution/tar/elasticsearch/2.0.0/elasticsearch-2.0.0.tar.gz

在项目根目录下新建 data 文件夹

#mkdir data

1-2.设置服务 ip&&port

修改文件 elasticsearch.yml

#pwd

/data2/elasticsearch-2.0.0/config

[root@10 config]# vim elasticsearch.yml

修改成服务 ip 和 port

network.host: 10.13.1.139

http.port: 54321

1-3.安装插件

在项目根目录下没有 plugins 文件夹,需通过安装插件新建该文件夹,

the core plugins can be installed as follows:

[root@10 bin]# pwd

/data2/elasticsearch-2.0.0/bin

[root@10 bin]# ./plugin install analysis-icu

-> Installing analysis-icu...

Plugins directory [/data2/elasticsearch-2.0.0/plugins] does not exist. Creating...

Trying https://download.elastic.co/elasticsearch/release/org/elasticsearch/plugin/analysis-icu/2.0.0/analysis-icu-2.0.0.zip ...

Downloading

1-4.sudo 用户修改文件为读写执行 (启动服务时,需非 Root 账号)

非 Root 账号启动服务时,会新建文件

[root@10 elasticsearch-2.0.0]# chmod 777 *

1-5.启动服务

切换到非 Root 用户,启动服务

[root@10 ~]# su - hugang

[hugang@10 ~]$ cd /data2/elasticsearch-2.0.0/bin

[hugang@10 bin]$ ./elasticsearch -d

验证服务

[hugang@10 bin]$ curl -X GET http://10.13.1.139:54321

{

"name" : "Madame Hydra",

"cluster_name" : "elasticsearch",

"version" : {

"number" : "2.0.0",

"build_hash" : "de54438d6af8f9340d50c5c786151783ce7d6be5",

"build_timestamp" : "2015-10-22T08:09:48Z",

"build_snapshot" : false,

"lucene_version" : "5.2.1"

},

"tagline" : "You Know, for Search"

}

2.Logstash 2.0.0 Install

Logstash:Collect, Enrich & Transport Data;Logstash 负责收集,丰富和传输 log 数据,Pipeline 由三部分组成:

input:指定来源

filter:过滤规则

output:指定输出

在配置文件指定这三个元素,运行 Logstash 时,需在执行脚本 bin/logstash 加上该配置文件作为脚本参数。

Logstash%20Image.png

运行环境要求:JDK minimum version 1.7.0_51

2-1.下载 Logstash

wget https://download.elastic.co/logstash/logstash/logstash-2.0.0.tar.gz

2-2.新建配置文件

根据自己业务需求,新建 Pipeline 配置文件,文件名自定义,但是内容必须含有 input, filter, output 三元素。

collectlogtoredis.conf

input {

file {

path => "/data1/weibo8074/logs/exposure.log"

}

}

filter {

grok {

match => { "message" => "(?[0-9]{10}) (?[0-9]{10}) (?([0-9]{16},){1,}[0-9]{16})" }

}

}

output {

redis { host => "10.13.1.139" port => 6379 data_type => "list" key => "logstash:collect:exposurelog" }

}

input: 指定 Logstash 收集数据的来源,支持多种来源,比如:file, stdin, syslog, elasticsearch 等,具体可参照:https://www.elastic.co/guide/en/logstash/current/input-plugins.html

collectlogtoredis.conf 分析

指定 input 来源为 file, 格式如下:

file {

path => ...

}

path 为配置选项(必填), 类型为 array, 可以如下定义, 支持通配符:

path => [ "/var/log/messages", "/var/log/*.log" ]

path => "/data/mysql/mysql.log"

stat_interval 配置选项:How often (in seconds) we stat files to see if they have been modified. 默认 1s.

match 为配置选项,Value type is hash, Default value is {};A hash of matches of field ⇒ value

For example:

filter {

grok { match => { "message" => "Duration: %{NUMBER:duration}" } }

}

If you need to match multiple patterns against a single field, the value can be an array of patterns

filter {

grok { match => { "message" => [ "Duration: %{NUMBER:duration}", "Speed: %{NUMBER:speed}" ] } }

}

指定 output 为 redis, 指定 host, port, key 等。

2-3. 启动 Logstatsh 服务

执行 bin/logstash agent -f collectlogtoredis.conf

3.kibana 4.2.1

3-1.下载

wget https://download.elastic.co/kibana/kibana/kibana-4.2.1-linux-x64.tar.gz

3-2.配置 elasticsearch 地址

在 config/kibana.yml 修改成你本地 elasticsearch 服务地址

elasticsearch.url: "http://10.13.1.139:54321"

3-3.启动服务 ./bin/kibana

访问 kibana 服务:

ip:5601

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值