ElasticStack日志分析(2)Logstash-ES-kibana

本文介绍了ElasticStack中的Logstash部署,包括安装测试、配置输入输出、Grok过滤插件的使用,以及接受Beats输入的配置。接着讲解了Elasticsearch集群的部署,强调了集群至少需要三个节点,并提供了启动和检查集群状态的方法。最后简述了Kibana的部署,指导如何创建索引模式和查看数据。
摘要由CSDN通过智能技术生成

logstatsh 跟filebeat的作用差不多
收集处理日志,推送相关的地方

三、logstatsh的部署

3.1 logstatsh安装测试运行

下载logstash-7.13.2-linux-x86_64.tar.gz包,并解压,大小约344M
修改名字logstash-7.13.2为logstash

Logstash管道两个必需元素 input 和 output
input模块收集,选择filters(过滤),然后输出outputs(可以输出到屏幕或者elk集群存起来)
主文件:/usr/local/logstash/bin/logstash

进入logstash的安装主目录下执行
/usr/local/logstash/bin/logstash -e ' input { stdin { type => stdin } } output { stdout { codec => rubydebug } } '
速度由性能决定,性能好点的速度可能会快一点,所以耐心等待。

3.2 配置输入输出

创建一个任意文件,并写入,作为logstash的管道配置文件
vim /usr/local/logstash/config/first-pipeline.conf input { stdin { } } output { stdout { } }

配置文件语法测试
/usr/local/logstash/bin/logstash -f config/first-pipline.conf --config.test_and_exit
出现Configuration OK字样
/usr/local/logstash/bin/logstash -f config/first-pipline.conf 运行

3.3 Grok 过滤插件

grok过滤器插件,解析web日志

将非结构化日志数据解析为结构化和可查询的内容
摘取感兴趣的片段
详细参考grok文档

  • 准备一个用于测试的日志
    vim /var/log/httpd.log

没换机器,为避免冲突,删掉/usr/local/logstash/data/* rm -rf /usr/local/logstash/data/*

input {
   
    file {
   
		path => ["/var/log/httpd.log"]
		start_position => "beginning"
	}
}
filter {
   
	grok {
   
		match => {
    "message" => "%{COMBINEDAPACHELOG}" }
	}
	mutate {
   
	##重写字段,rename重命名名称,把clientip改成cip。想定义哪个字段改哪个
		rename => {
   
			"clientip" => "cip"
			}
	}
	##删除字段remove_field,如message input_type @..等
	mutate {
    remove_field => ["message","input_type","@version","fields"] }
}
output {
   
	stdout {
    }
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值