碎碎念:两年没有更新博客了,今天是新的开始,想记录下自己工作之后的成长。
写在前面:前段时间开周会的时候,其他组同步一个问题,就是在压测的时候出现了kafka的消费者重复消费的问题。我比较好奇为什么会出现这种问题,知道问题肯定不是出在kafka,每秒几十万的吞吐量,怎么可能是消息队列本身的问题呢
我们代码里kafka配置
<!--定义consumer的参数 -->
<bean id="consumerProperties" class="java.util.HashMap">
<constructor-arg>
<map>
<!-- 配置kafka的broke -->
<entry key="bootstrap.servers" value="${kafka.fence.bootstrap.servers}"/>
<!-- 配置组-->
<entry key="group.id" value="${kafka.fence.consumer.group.id}"/>
<entry key="enable.auto.commit" value="${kafka.fence.enable.auto.commit}"/>
<entry key="auto.commit.interval.ms" value="${kafka.fence.auto.commit.interval.ms}"/>
<entry key="session.timeout.ms" value="${kafka.fence.session.ti