【Kafka】Consumer配置

从0.9.0.0开始,下面是消费者的配置。

名称描述类型默认值
bootstrap.servers消费者初始连接kafka集群时的地址列表。不管这边配置的什么地址,消费者会使用所有的kafka集群服务器。消费者会通过这些地址列表,找到所有的kafka集群机器。list
key.deserializer实现了Deserializer的key的反序列化类class
value.deserializer实现了Deserializer的value的反序列化类class
fetch.min.bytes每次请求,kafka返回的最小的数据量。如果数据量不够,这个请求会等待,直到数据量到达最小指标时,才会返回给消费者。如果设置大于1,会提高kafka的吞吐量,但是会有额外的等待期的代价。int1
group.id标识这台消费者属于那个消费组。如果消费者通过订阅主题来实现组管理功能,或者使用基于kafka的偏移量管理策略,这个配置是必须的。string""
heartbeat.interval.ms使用kafka集群管理工具时,消费者协调器之间的预计心跳时间。心跳的作用是确保消费者的session是活跃的,同时当新的机器加入集群或有机器挂掉的情况下触发再平衡操作。这个配置必须小于heartbeat.interval.ms,而且应该不大于这个值的1/3。为了控制正常的负载均衡的预期时间,这个值可以设置的更小。int3000
max.partition.fetch.byteskafka集群每个分区一次返回的最大数据量。一次请求的最大内存使用量应该等于#partitions * max.partition.fetch.bytes。这个值必须与kafka集群允许的最大消息数据量差不多大小,否则可能生产者发送了一个消息,大于消费者配置的值。这种情况下,消费者可能会在获取那条消息时堵住。int1048576
session.timeout.ms使用kafka集群管理工具时检测失败的超时时间。如果在session超时时间范围内,没有收到消费者的心跳,broker会把这个消费者置为失效,并触发消费者负载均衡。因为只有在调用poll方法时才会发送心跳,更大的session超时时间允许消费者在poll循环周期内处理消息内容,尽管这会有花费更长时间检测失效的代价。如果想控制消费者处理消息的时间,还可以参考max.poll.records。注意这个值的大小应该在group.min.session.timeout.ms和group.max.session.timeout.ms范围内。int30000
ssl.key.password私钥存储文件的私钥密码。可选配置。passwordnull
ssl.keystore.location私钥存储文件的路径。可选配置,并且可用来作为客户端的双向认证。stringnull
ssl.keystore.password私钥存储文件的存储密码。可选配置,并且只有ssl.keystore.location配置的情况下才需要配置。passwordnull
ssl.truststore.location信任秘钥文件路径。stringnull
ssl.truststore.password信任秘钥文件密码。passwordnull
auto.offset.reset当kafka的初始偏移量没了,或者当前的偏移量不存在的情况下,应该怎么办?下面有几种策略:earliest(将偏移量自动重置为最初的值)、latest(自动将偏移量置为最新的值)、none(如果在消费者组中没有发现前一个偏移量,就向消费者抛出一个异常)、anything else(向消费者抛出异常)stringlatest
connections.max.idle.ms配置时间后,关闭空闲的连接long540000
enable.auto.commit如果设为true,消费者的偏移量会定期在后台提交。booleantrue
exclude.internal.topics内部主题(比如偏移量)是否需要暴露给消费者。如果设为true,获取内部主题消息的途径就是订阅他们。booleantrue
max.poll.records一次poll调用返回的最大消息数量。int2147483647
partition.assignment.strategy使用组管理时,客户端使用的分区策略的类名,根据这个策略来进行消费分区。list[org.apache.kafka.clients.consumer.RangeAssignor]
receive.buffer.bytesSO_RCVBUF读取数据使用的内存大小。int65536
request.timeout.ms这个配置控制一次请求响应的最长等待时间。如果在超时时间内未得到响应,kafka要么重发这条消息,要么超过重试次数的情况下直接置为失败。int40000

转载于:https://www.cnblogs.com/f-zhao/p/7456771.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要创建一个Kafka Consumer,需要执行以下步骤: 1. 导入所需的 Kafka 相关库,如 kafka-clients 和 slf4j。 2. 配置 Consumer 的属性,例如 Kafka 服务器的地址、Consumer 组 ID、是否自动提交偏移量等。 3. 创建一个 KafkaConsumer 实例,将上一步中的属性传递给它。 4. 订阅一个或多个主题,使用 KafkaConsumer 的 subscribe() 方法。 5. 循环从 Consumer 中拉取消息,使用 KafkaConsumer 的 poll() 方法。 6. 处理从 Kafka 中拉取的消息。 下面是一个基本的 Kafka Consumer 的示例代码: ```java import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import org.apache.kafka.common.serialization.StringDeserializer; import java.util.Collections; import java.util.Properties; public class MyKafkaConsumer { public static void main(String[] args) { // 配置 Consumer 的属性 Properties props = new Properties(); props.setProperty("bootstrap.servers", "localhost:9092"); props.setProperty("group.id", "my-group"); props.setProperty("enable.auto.commit", "true"); props.setProperty("auto.commit.interval.ms", "1000"); props.setProperty("key.deserializer", StringDeserializer.class.getName()); props.setProperty("value.deserializer", StringDeserializer.class.getName()); // 创建 KafkaConsumer 实例 KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); // 订阅一个主题 consumer.subscribe(Collections.singletonList("my-topic")); // 循环从 Consumer 中拉取消息 while (true) { ConsumerRecords<String, String> records = consumer.poll(100); // 处理从 Kafka 中拉取的消息 for (ConsumerRecord<String, String> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } } } } ``` 注意,这只是一个基本的示例,实际使用中还需要考虑更多的细节和配置

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值