一:kafka轮询
1:正常情况下来说,kafka轮询消费的意思就是客户端从kafka中获取数据是通过分批获取的方式,每隔一段时间获取一批数据。
2:但是能否正常在间隔时间内去拉取数据,要看你的业务处理逻辑是否在这个间隔时间内完成,如果在间隔时间内,处理逻辑还没有结束的话,kafka poll就不会去获取数据,这样的话kafka集群就会认为你这个消费者已经死亡了,就会触发reblance,从而导致客户端无法正常消费。而控制两次pool之间的轮询间隔的参数就是。max.poll.interval.ms 默认是300s
二:当发现这个问题的时候如何解决?
1:首先判断你每一次poll获取的数据全部处理完要多久时间,然后更改max.poll.interval.ms,或者尝试优化处理逻辑代码以缩减处理时间,最终的目标就是让处理逻辑在max.poll.interval.ms之间运行完毕,不耽误下一次轮询数据即可。
2:pool获取的数据可以指定多少条,试着减少这个数量即可。默认情况下一次poo获取的数据量是,max.poll.records=500,你可以自己修改这个参数,以平衡处理数据时间,和过期死亡时间,其实这两种办法的思想都是一样的。