Flume采集rsync同步文件,有重复数据,解决方案

最近线上做测试,因为有服务布在公网云,kafka和hadoop集群布在私有云.所以想采用flume->kafka->flume->hadoop方案,将公有云的服务日志收集到hadoop集群.
因为公有云上服务布的节点节点比较多,所以采用rsync方式,将所有应用日志采集到一台服务器上.再用flume做采集.
开始flume使用agent.sources.s1.type = TAILDIR的方式,将日志发送过去以后,发现日志有重复数据.
排查以后发现,rsync用了 -avz 参数, 网上查找以后发现,rsync -avz并不是纯文件末尾追加内容的形式.
所以flume在taildir采集的时候,每次rsync,都会导致agent.sources.s1.positionFile = file_position.json 重置,把rsync同步后的文件全部内容,重新采集一遍.
不过rsync 可以使用-auvz --append参数,这种是文件末尾追加,那么flume会正常采集!(前提是rsync同步前的文件本身内容,就是末尾追加的形式,且前面内容不改动).
参考: flume采集rsync文件

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值