flume高并发优化——(16)解决offsets变小问题

本文详细介绍了在Flume高并发环境下如何解决offsets变小的问题,通过分析源码发现,Flume自身管理的topic-offsets关系是关键。在初始化offsets时,通过与Kafka对比来避免问题。此外,针对offsets变化导致的消费重复,提出了调整分区策略,改为自动提交并确保分区数大于消费者数。通过对源码的深入理解,能有效解决这类问题。
摘要由CSDN通过智能技术生成

offsets初始化

在上篇博客中《flume高并发优化——(14)解决空行停止收集数据问题,及offsets变小问题 》我们遗留了一个小问题,就是offsets变小的问题,迟迟未解决,经过研究flume代码发现,flume中,是自己管理offsets关系的,每个kafkachannel的代码中保留了一份topic-offsets的关系,源码:

@Override
  public void start() {
    try {
      logger.info("=KafkaChannel.start=> begin " + getName());
      // As a migration step check if there are any offsets from the group stored in kafka
      // If not read them from Zookeeper and commit them to Kafka</
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值