Kafka核心参数(带完善)

客户端

api

Kafka提供了以下两套客户端API

  • HighLevel(重点)
  • LowLevel 

HighLevel API封装了kafka的运行细节,使用起来比较简单,是企业开发过程中最常用的客户端API。 而LowLevel API则需要客户端自己管理Kafka的运行细节,Partition,Offset这些数据都由客户端自行管理。这层API功能更灵活,但是使用起来非常复杂,也更容易出错。只在极少数对性能要求非常极致的场景才会偶尔使用

生产者发送消息

发送流程:

  1. 组装生产者核心配置参数
  2. 初始化生产者
  3. 组装消息
  4. 发送消息, 三种模式
    1. 单向发送, 不等待broker返回结果
    2. 同步发送
    3. 异步发送
  5. 关闭生产者

代码:

package com.kk.kafka.demo;

import org.apache.kafka.clients.producer.*;
import java.util.Properties;
import java.util.concurrent.ExecutionException;

public class ProducerTest {

    public static final String KAFKA_URL = "192.168.6.128:9092";

    public static final String TOPIC = "oneTopic";

    public static void main(String[] args) throws ExecutionException, InterruptedException {
        // 组装生产者配置
        Properties ps = new Properties();
        ps.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, KAFKA_URL);
        ps.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
        ps.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
        // 初始化生产者
        Producer<String, String> producer = new KafkaProducer<>(ps);
        for (int i = 0; i < 5; i++) {
            ProducerRecord<String, String> producerRecord = new ProducerRecord<>(TOPIC, "key" + i, "message" + i);
            // 同步发送
            producer.send(producerRecord);
            // 同步发送
            RecordMetadata metadata = producer.send(producerRecord).get();
            //异步发送
            producer.send(producerRecord, new Callback() {
                @Override
                public void onCompletion(RecordMetadata metadata, Exception e) {
                    if (metadata != null) {
                        System.out.println("Message sent successfully! Topic: " + metadata.topic() +
                                ", Partition: " + metadata.partition() +
                                ", Offset: " + metadata.offset() +
                                ", message: " + producerRecord.value());
                    } else {
                        System.err.println("Error sending message: " + e.getMessage());
                    }
                }
            });
        }
        producer.close();
    }
}

消费者消费消息

消费流程:

  1. 组装消费者核心配置参数
  2. 初始化消费者
  3. 订阅topic, 可订阅多个
  4. 拉取消息, 可配置超时时间
  5. 提交offset, 分为同步和异步两种方式, 服务端维护offset消费进度

代码:

package com.kk.kafka.demo;

import org.apache.kafka.clients.consumer.*;
import java.time.Duration;
import java.util.Arrays;
import java.util.Properties;

public class ConsumerTest {

    public static final String KAFKA_URL = "192.168.6.128:9092";

    public static final String TOPIC = "oneTopic";

    public static void main(String[] args) {
        // 组装消费者配置参数
        Properties props = new Properties();
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, KAFKA_URL);
        props.put(ConsumerConfig.GROUP_ID_CONFIG, "your-consumer-group");
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
        // 初始化消费者
        Consumer<String, String> consumer = new KafkaConsumer<>(props);
        // 订阅topic
        consumer.subscribe(Arrays.asList(TOPIC));
        while (true) {
            // 拉取消息,  100毫秒超时时间
            ConsumerRecords<String, String> records = consumer.poll(Duration.ofNanos(100));
            //处理消息
            for (ConsumerRecord<String, String> record : records) {
                System.out.println("start Consumer offset = " + record.offset() + ";key = " + record.key() + "; value= " + record.value());
            }
            //提交offset,消息就不会重复推送。
            //同步提交,表示必须等到offset提交完毕,再去消费下一批数据。
            consumer.commitSync();
            //异步提交,表示发送完提交offset请求后,就开始消费下一批数据了。不用等到Broker的确认。
//            consumer.commitAsync();
        }
    }
}

客户端整体流程

拦截器

序列化器

发送到Dequeue

Dequeue满了或者批次满了或者阈值时间 推到InflightRequest

send线程将InflightRequest推到服务端Partition, 满足一定阈值

缓存机制

broker给生产者ack

消费者分组策略

相关消费者配置

  • GROUP_ID_CONFIG: 群组唯一id
  • GROUP_INSTANCE_ID_CONFIG: 消费实例id, 可以减少不必要rebalance

生产者给Topic投递消息, 消息会均匀的存到partition. 消息会向所有订阅该Topic的消费实例推送, 推送时, 一个消费群组只会推送一份. 也就是, 同一个群组里面, 只会有一个消费实例能消费; 不同消费群组可以重复消费消息.Offset就是记录每个消费群组在partition的处理消息进度

offset丢失怎么解决

1. offset丢失:

  1. 初始化consumer group时, 设置offset失败
  2. offset对应的数据文件被删除

解决: 服务端有个兜底方案, 可以配置消费者配置

ConsumerConfig.AUTO_OFFSET_RESEWT_CONFIG :当Server端没有对应的Offset时,要如何处理。

可选项:

  • earliest: 自动设置为当前最早的offset
  • latest:自动设置为当前最晚的offset
  • none: 如果消费者组对应的offset找不到,就向Consumer抛异常。
  • 其他选项: 向Consumer抛异常。

2. offset不一致问题

消费者可以选择同步提交或者异步提交

  • 同步提交: 消息处理完, 提交. 消息处理失败, 选择不提交, 等重试. 如果消费过慢, 服务端不会无限等, 会认为本次消费失败, 会给同组的其他消费实例投递消费, 可能存在重复消费问题 
  • 异步提交: 先提交, 后处理消息. 如果消息处理失败, offset又被提交, 就存在客户端与服务端offset不一致问题

解决: 可以交由客户端管理offset, 存到redis或者mysql等中间件.客户端可以控制消息处理进度, 实时推进offset

生产者拦截器

生产者配置: INTERCEPTOR_CLASSES_CONFIG

        properties.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, "com.kk.kafka.demo.MyProducerInterceptor");

public class MyProducerInterceptor implements ProducerInterceptor {

    // 发送消息触发
    @Override
    public ProducerRecord onSend(ProducerRecord producerRecord) {
        System.out.println("onSend producerRecord:" + producerRecord.toString());
        return producerRecord;
    }

    // 收到服务端相应触发
    @Override
    public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
        System.out.println("acknowledgement recordMetadata:" + recordMetadata.toString());
    }

    // 生产者连接关闭触发
    @Override
    public void close() {
        System.out.println("producer close");
    }

    // 整理配置项
    @Override
    public void configure(Map<String, ?> map) {

    }
}

消息序列化

相关配置:

  • KEY_SERIALIZER_CLASS_CONFIG: key序列号
  • VALUE_SERIALIZER_CLASS_CONFIG: 消息value序列号
  • KEY_DESERIALIZER_CLASS_CONFIG: key反序列化
  • VALUE_DESERIALIZER_CLASS_CONFIG: 消息value反序列化

1. 生产者:

ps.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");
ps.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");

2. 消费者

props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");

消息分区路由机制

生产者缓存机制

其他重要核心参数 

幂等性原理

事务消息

Spring Boot提供了以下Kafka配置参数: 1. spring.kafka.bootstrap-servers:Kafka集群的地址列表,用逗号分隔。 2. spring.kafka.client-id:Kafka客户端ID,默认为空。 3. spring.kafka.consumer.auto-commit-interval:自动提交偏移量的时间间隔(毫秒)。默认值为5000。 4. spring.kafka.consumer.auto-offset-reset:当服务器上没有初始偏移量或当前偏移量不可用时,应该从哪里开始消费。可选值为latest(从最新记录开始消费)或earliest(从最早的记录开始消费)。默认为latest。 5. spring.kafka.consumer.enable-auto-commit:是否启用自动提交偏移量。默认为true。 6. spring.kafka.consumer.fetch-max-wait:等待从Kafka获取消息的最长时间(毫秒)。默认为500。 7. spring.kafka.consumer.group-id:这个消费者所属的消费者组ID。 8. spring.kafka.consumer.key-deserializer:键的反序列化程序类。 9. spring.kafka.consumer.value-deserializer:值的反序列化程序类。 10. spring.kafka.listener.concurrency:侦听器容器的并发性级别。默认为1。 11. spring.kafka.producer.acks:producer期望从broker收到的确认数。可选值为0(不需要确认),1(需要确认leader),all(需要确认所有副本)。默认为1。 12. spring.kafka.producer.batch-size:单个批次的大小(字节)。默认为16384。 13. spring.kafka.producer.bootstrap-servers:Kafka集群的地址列表,用逗号分隔。 14. spring.kafka.producer.buffer-memory:生产者可以使用的总内存字节来缓冲消息。默认为33554432。 15. spring.kafka.producer.compression-type:消息压缩类型(gzip,snappy或lz4)。默认为none。 16. spring.kafka.producer.key-serializer:键的序列化程序类。 17. spring.kafka.producer.retries:在抛出异常之前重试发送消息的次数。默认为0。 18. spring.kafka.producer.value-serializer:值的序列化程序类。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值