在使用multiline插件时发现总是读不到最后一条数据,且在停掉logstash时这条数据才会读出来。翻了帖子后发现应该添加auto_flush_interval => 1属性才行。
input {
file {
path => ......
start_position => ......
sincedb_path => ....
//合并插件用法
codec => multiline {
pattern => "^[0-9,]" //正则匹配,我这里匹配的是以0-9数字开头和逗号开头, ^表示以。。。开头
negate => true //negate:否定,否认,使无效,这里设置为true,就说明是对上面匹配没有成功
what => "previous" //表示当上述正则没有匹配成功时将当前数据与上一条数据进行合并,这个值可以是previous和next,根据需要自己设置
auto_flush_interval => 1//这个属性的含义是超过多少秒没有新数据来就会把当前行作为一行数据处理,不再等后面的数据了,这个1就是1秒,可以自己设置
}
}
}
===========================================
如果pattern里面想匹配的是多个指定的字符串,就用|隔开:
codec => multiline {
pattern => "hangzhou|shanghai" //这样就可以匹配到hangzhou或者shanghai
negate => true
what => "previous"
auto_flush_interval => 1
}
在解决的过程中也有考虑,为什么这么重要的属性,官网没有显式地把它指出来作为一个必填属性呢,猜测可能是因为在实际应用中大多数是使用实时流处理的,就是说这个文件内容一直在追加,所以官网就没有明确指出这个属性,而我们在这里使用的是静态文件,只能自己去设置告诉他文件读完了,不用再等下一条数据了。