在logstash7.4中实现不同来源数据输出到Elasticsearch的指定索引中

需求分析

logstash可以采集不同来源、不同格式的数据,经过清洗、转换后统一存储到Elasticsearch中。为了区别不同来源的的数据,在Elasticsearch中可以分别建立索引。为了实现这个需求,需要在Logstash定义不同的数据源,根据数据源匹配对应的输出。

需求实现

1、首先在Elasticsearch中为不同来源的数据建立映射(mapping),定义每个字段的数据类型。
2、其次在Logstash中建立单个数据源的输入和输出。比如需要将Oracle中的个表A、B,输出到Elasticsearch中实现全文搜索的功能。Elasticsearch两个表的索引为indexA,indexB。

###针对数据源A建立配置信息
input {
	jdbc{
		jdbc_connection_string=> "jdbc:oracle:thin:@192.168.100.53:1521/gis01"
		jdbc_user=> "**"
		jdbc_password=> "**"
		jdbc_driver_library=> ""
		jdbc_driver_class=> "Java::oracle.jdbc.driver.OracleDriver"
		statement=> "select t.id,t.bsm,t.mc,t.jzxttl,t.gshttl,t.ytshttl from A t"
		jdbc_fetch_size=>50
	}
}

output {
  elasticsearch {
    hosts => ["http://192.168.100.155:9200"]
    index => "indexA"
  }
}
###针对数据源B建立配置信息
input {
	jdbc{
		jdbc_connection_string=> "jdbc:oracle:thin:@192.168.100.53:1521/gis01"
		jdbc_user=> "**"
		jdbc_password=> "**"
		jdbc_driver_library=> ""
		jdbc_driver_class=> "Java::oracle.jdbc.driver.OracleDriver"
		statement=> "select t.id,t.bsm,t.mc,t.jzxttl,t.gshttl,t.ytshttl from B t"
		jdbc_fetch_size=>50
	}
}

output {
  elasticsearch {
    hosts => ["http://192.168.100.155:9200"]
    index => "indexB"
  }
}

3、在每个jdbc{}输入中定义type值。type参数为logstash所有输入组件的通用属性。比如A来源的type值为“sourceA”,B来源的type值为“sourceB”。修改后的jdbc{}定义如下:

###针对数据源A建立配置信息,增加type属性的定义
input {
	jdbc{
		type=> "sourceA"
		jdbc_connection_string=> "jdbc:oracle:thin:@192.168.100.53:1521/gis01"
		jdbc_user=> "**"
		jdbc_password=> "**"
		jdbc_driver_library=> ""
		jdbc_driver_class=> "Java::oracle.jdbc.driver.OracleDriver"
		statement=> "select t.id,t.bsm,t.mc,t.jzxttl,t.gshttl,t.ytshttl from A t"
		jdbc_fetch_size=>50
	}
}
###针对数据源B建立配置信息,增加type属性的定义
input {
	jdbc{
		type=> "sourceB"
		jdbc_connection_string=> "jdbc:oracle:thin:@192.168.100.53:1521/gis01"
		jdbc_user=> "**"
		jdbc_password=> "**"
		jdbc_driver_library=> ""
		jdbc_driver_class=> "Java::oracle.jdbc.driver.OracleDriver"
		statement=> "select t.id,t.bsm,t.mc,t.jzxttl,t.gshttl,t.ytshttl from B t"
		jdbc_fetch_size=>50
	}
}

4、在logstash的输出中,增加不同数据源的判断。根据输入体中定义的type值,指定数据输出到Elasticsearch的不同索引下。输出体修改后如下:

###在输出中增加数据源的判断。根据输入体中定义的Type属性值,进行不同的输出操作。
output {
	if [type] == "sourceA"
	{
  		elasticsearch {
    		hosts => ["http://192.168.100.155:9200"]
    		index => "indexA"
  		}
  	}
  	if [type] == "sourceB"
	{
  		elasticsearch {
    		hosts => ["http://192.168.100.155:9200"]
    		index => "indexB"
  		}
  	}
}

至此,在logstash7.4中实现不同来源数据输出到Elasticsearch的指定索引中的功能得到实现,完整的配置文件如下:


input {
###针对数据源A建立配置信息,增加type属性的定义
	jdbc{
		type=> "sourceA"
		jdbc_connection_string=> "jdbc:oracle:thin:@192.168.100.53:1521/gis01"
		jdbc_user=> "**"
		jdbc_password=> "**"
		jdbc_driver_library=> ""
		jdbc_driver_class=> "Java::oracle.jdbc.driver.OracleDriver"
		statement=> "select t.id,t.bsm,t.mc,t.jzxttl,t.gshttl,t.ytshttl from A t"
		jdbc_fetch_size=>50
	}
	###针对数据源B建立配置信息,增加type属性的定义
	jdbc{
		type=> "sourceB"
		jdbc_connection_string=> "jdbc:oracle:thin:@192.168.100.53:1521/gis01"
		jdbc_user=> "**"
		jdbc_password=> "**"
		jdbc_driver_library=> ""
		jdbc_driver_class=> "Java::oracle.jdbc.driver.OracleDriver"
		statement=> "select t.id,t.bsm,t.mc,t.jzxttl,t.gshttl,t.ytshttl from B t"
		jdbc_fetch_size=>50
	}
}
output {
	if [type] == "sourceA"
	{
  		elasticsearch {
    		hosts => ["http://192.168.100.155:9200"]
    		index => "indexA"
  		}
  	}
  	if [type] == "sourceB"
	{
  		elasticsearch {
    		hosts => ["http://192.168.100.155:9200"]
    		index => "indexB"
  		}
  	}
}

5、启动logstash
如果logstash没有运行,那么使用配置文件启动logstash。如果已经运行并且启用了配置文件自动加载选项(–config.reload.automati),logstash会自动新建管道,使用新的配置文件采集、存储数据;如果已经运行的logstash没有启用自动加载配置文件选项,那么可以使用以下命令重新加载配置文件。

kill -SIGHUP 1345

其中1345位运行logstash的进程ID值。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这是一个比较常见的问题,一般的解决方案如下: 1. 首先,在filebeat的配置文件进行多文件配置。例如,你可以使用如下的配置: filebeat.prospectors: - paths: - /var/log/logfile1.log - /var/log/logfile2.log - /var/log/logfile3.log input_type: log fields: log_type: logfile1 - paths: - /var/log/logfile4.log - /var/log/logfile5.log - /var/log/logfile6.log input_type: log fields: log_type: logfile2 这个配置文件会将三个文件(/var/log/logfile1.log, /var/log/logfile2.log, /var/log/logfile3.log)认为是一类,将三个文件(/var/log/logfile4.log, /var/log/logfile5.log, /var/log/logfile6.log)认为是另外一类,其 fields 的值可以任意指定,主要是为了在 logstash 区分不同的日志类型。 2. 在logstash进行判断。在logstash的配置文件,我们可以使用条件语句来判断哪些日志属于哪个索引,例如: input { beats { port => 5044 } } filter { if [fields][log_type] == "logfile1" { mutate { add_field => {"[@metadata][index]" => "logstash-logfile1-%{+YYYY.MM.dd}"} } } else if [fields][log_type] == "logfile2" { mutate { add_field => {"[@metadata][index]" => "logstash-logfile2-%{+YYYY.MM.dd}"} } } else { drop {} } } output { elasticsearch { hosts => ["localhost:9200"] index => "%{[@metadata][index]}" } } 这个配置文件会根据 fields 的值判断哪些日志应该属于哪个索引,并将它们输出到对应的索引。 希望这个回答可以帮到你!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值