spring:
kafka:
# kafka连接地址
bootstrap-servers: localhost:9092
# 生产者配置
producer:
# 重试次数
retries: 0
# 应答级别
acks: 1
# 每次批量发送消息的数量,produce积累到一定数据,一次发送
batch-size: 16384
# produce积累数据一次发送,缓存大小达到buffer.memory就发送数据
buffer-memory: 33554432
# 序列化key的类
key-serializer: org.apache.kafka.common.serialization.StringSerializer
# 序列化value的类
value-serializer: org.apache.kafka.common.serialization.StringSerializer
# 消费者配置
consumer:
# 默认的消费组ID
group-id: test001
# 是否自动提交offset
enable-auto-commit: true
# 提交offset延时(接收到消息后多久提交offset),单位毫秒,默认值5000
auto-commit-interval: 100
# earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
# latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
# none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
auto-offset-reset: latest
# 序列化key的类
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
# 序列化value的类
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
kafka集成springboot常用文件配置
最新推荐文章于 2024-09-12 08:59:05 发布