kafka shutdown停止关闭很慢问题的解决方案



kafka shutdown停止很慢问题


在数据量大的时候,consumer一次抓取数据的数据很多,进入到业务处理的数据可能有很多,

假设一次poll有1万条数据进入业务程序,而且业务程序是和poll绑定在一起线程同步执行的,假设平均每条数据,执行业务程序花费100ms,

那么poll一次的数据,至少要执行 1w*0.1s = 1000s = 16.67分钟。

所以,在数据量大的时候,停止一个线程(需要先等待业务程序处理完数据),可能要十几分钟。

 

shutdown问题解决方案

1、改成异步处理数据,consumer取出来的数据,放到BlockQueue中,由异步线程去处理,当异步线程处理不过来时,阻塞consumer,调用consumer.pause()方法avoid group management rebalance,代码如下(来源于Spring-Kafka):

1
2
3
4
5
6
// avoid group management rebalance due to a slow consumer
this .consumer.pause( this .assignedPartitions.toArray( new  TopicPartition[ this .assignedPartitions.size()]));
 
public  void  onPartitionsAssigned(Collection<TopicPartition> partitions) {
     this .assignedPartitions = partitions;
}


2、如果是同步执行数据处理,考虑提高业务程序 处理数据的速度。


3、同步处理数据,但是改成手动提交offset,当shutdown的时候,poll的数据不需要全部处理,只需要记录处理的位置即可。代码示例如下:

1
2
3
4
5
6
7
8
9
list data = consumer.poll();
for (record: data) { 
     if (shutdown) {   // 收到shutdown命令后立即停止,未处理的数据将丢弃
         break ;
     }
    deal(record);
    saveTopicOffset(record);
}
submitDealtDataOffset();



另外,

Kafka停不掉shutdown关闭不了问题

原因是卡在了consumer.close()方法里面,它会提交offset信息,如果网络中断或者kafka服务器有问题导致提交不了offset,则consumer.close方法会一直卡住(不停的循环尝试提交offset,永不中断)。


参见:Kafka poll一直等待的bug:

https://issues.apache.org/jira/browse/KAFKA-4189?jql=project%20%3D%20KAFKA%20AND%20resolution%20%3D%20Unresolved%20AND%20component%20%3D%20consumer%20ORDER%20BY%20priority%20DESC


https://issues.apache.org/jira/browse/KAFKA-3172?jql=project%20%3D%20KAFKA%20AND%20resolution%20%3D%20Unresolved%20AND%20component%20%3D%20consumer%20ORDER%20BY%20priority%20DESC



解决方法:目前还没有好的办法,只能将offset的自动提交改成手动提交offset。但是,我写了一个程序可以在调用consumer.close后将线程强行杀死,作为临时解决方案。


kafka shutdown停止很慢问题


在数据量大的时候,consumer一次抓取数据的数据很多,进入到业务处理的数据可能有很多,

假设一次poll有1万条数据进入业务程序,而且业务程序是和poll绑定在一起线程同步执行的,假设平均每条数据,执行业务程序花费100ms,

那么poll一次的数据,至少要执行 1w*0.1s = 1000s = 16.67分钟。

所以,在数据量大的时候,停止一个线程(需要先等待业务程序处理完数据),可能要十几分钟。

 

shutdown问题解决方案

1、改成异步处理数据,consumer取出来的数据,放到BlockQueue中,由异步线程去处理,当异步线程处理不过来时,阻塞consumer,调用consumer.pause()方法avoid group management rebalance,代码如下(来源于Spring-Kafka):

1
2
3
4
5
6
// avoid group management rebalance due to a slow consumer
this .consumer.pause( this .assignedPartitions.toArray( new  TopicPartition[ this .assignedPartitions.size()]));
 
public  void  onPartitionsAssigned(Collection<TopicPartition> partitions) {
     this .assignedPartitions = partitions;
}


2、如果是同步执行数据处理,考虑提高业务程序 处理数据的速度。


3、同步处理数据,但是改成手动提交offset,当shutdown的时候,poll的数据不需要全部处理,只需要记录处理的位置即可。代码示例如下:

1
2
3
4
5
6
7
8
9
list data = consumer.poll();
for (record: data) { 
     if (shutdown) {   // 收到shutdown命令后立即停止,未处理的数据将丢弃
         break ;
     }
    deal(record);
    saveTopicOffset(record);
}
submitDealtDataOffset();



另外,

Kafka停不掉shutdown关闭不了问题

原因是卡在了consumer.close()方法里面,它会提交offset信息,如果网络中断或者kafka服务器有问题导致提交不了offset,则consumer.close方法会一直卡住(不停的循环尝试提交offset,永不中断)。


参见:Kafka poll一直等待的bug:

https://issues.apache.org/jira/browse/KAFKA-4189?jql=project%20%3D%20KAFKA%20AND%20resolution%20%3D%20Unresolved%20AND%20component%20%3D%20consumer%20ORDER%20BY%20priority%20DESC


https://issues.apache.org/jira/browse/KAFKA-3172?jql=project%20%3D%20KAFKA%20AND%20resolution%20%3D%20Unresolved%20AND%20component%20%3D%20consumer%20ORDER%20BY%20priority%20DESC



解决方法:目前还没有好的办法,只能将offset的自动提交改成手动提交offset。但是,我写了一个程序可以在调用consumer.close后将线程强行杀死,作为临时解决方案。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值