Kafka生产者详解

客户端开发

一般的生产逻辑所需步骤:

  1. 配置生产者客户端参数及创建相应的生产者实例。
  2. 构建需要发送的消息。
  3. 发送消息。
  4. 关闭生产者实例。

Java代码实现:

public class KafkaProducerDemo1 {

    public static final Logger logger = LoggerFactory.getLogger(KafkaProducerDemo1.class);

    public static final String BOOTSTRAP_SERVER = "localhost:9094";
    public static final String TOPIC = "my-replicated-topic";

    public static Properties initConfig(){
        Properties properties = new Properties();

        properties.put("bootstrap.servers", BOOTSTRAP_SERVER);
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.CLIENT_ID_CONFIG, "producer_demo1");
        logger.info("initConfig result is {}", properties.toString());
        return properties;
    }

    public static void main(String[] args) {
        Properties properties = initConfig();
        try (KafkaProducer<String, String> kafkaProducer = new KafkaProducer<>(properties)) {
            ProducerRecord<String, String> objectStringProducerRecord = new ProducerRecord<>(TOPIC, "hello kafka!");
            // 发后即忘(fire-and-forget)
            // kafkaProducer.send(objectStringProducerRecord);

            // 同步发送方式.get()
            Future<RecordMetadata> send = kafkaProducer.send(objectStringProducerRecord);
            // recordMetadata存在元数据
            RecordMetadata recordMetadata = send.get(10, TimeUnit.SECONDS);
            System.out.println(recordMetadata.offset());
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

}

配置参数

在Kafka生产者客户端KafkaProducer中有3个参数是必填的:

  1. bootstrap.servers:该参数用来指定生产者客户端连接Kafka集群所需的broker地址清单。
  2. key.serializer&value.serializer:broker 端接收的消息必须以字节数组(byte[])的形式存在,来指定key和value序列化操作的序列化器,这两个参数无默认值。

client.id,这个参数用来设定KafkaProducer对应的客户端id,默认值为“”。如果客户端不设置,则KafkaProducer会自动生成一个非空字符串,内容形式如“producer-1”“producer-2”,即字符串“producer-”与数字的拼接。

可配置的参数远不止这些,需要的时候再补充。

构建与发送消息

消息的构建即创建ProducerRecord对象。

发送消息主要有三种模式:发后即忘(fire-and-forget)、同步(sync)及异步(async)。

// 发后即忘(fire-and-forget)
// kafkaProducer.send(objectStringProducerRecord);

不在意消息是否是否成功。性能最高可靠性最差。

// 同步发送方式.get()
Future<RecordMetadata> send = kafkaProducer.send(objectStringProducerRecord);
// recordMetadata存在元数据
RecordMetadata recordMetadata = send.get(10, TimeUnit.SECONDS);

同步方法来阻塞等待Kafka的响应,直到消息发送成功,或者发生异常。获得RecordMetadata对象,在RecordMetadata对象里包含了消息的一些元数据信息,比如当前消息的主题、分区号、分区中的偏移量(offset)、时间戳等。Future中的 get(longtimeout,TimeUnit unit)方法实现可超时的阻塞。

Kafka拥有重试机制,但是异常分为可重试和不可重试两种;比如网络异常,leder副本不可用等可以重试来解决。消息体过大等不可以重试。

properties.put(ProducerConfig.RETRIES_CONFIG, 3);

可以通过如上配置实现重试,默认是0。

// 异步发送
  kafkaProducer.send(objectStringProducerRecord, (recordMetadata, e) -> {
      if (e != null) {
          logger.error("发送失败");
      } else {
          logger.info("recordMetadata offset is {}", recordMetadata.offset());
      }
  });

onCompletion()方法的两个参数是互斥的,消息发送成功时,metadata 不为 null而exception为null;消息发送异常时,metadata为null而exception不为null。

整体架构

在这里插入图片描述
整个生产者客户端由两个线程协调运行,这两个线程分别为主线程和Sender线程(发送线程)。在主线程中由KafkaProducer创建消息,然后通过可能的拦截器、序列化器和分区器的作用之后缓存到消息累加器(RecordAccumulator,也称为消息收集器)中。Sender 线程负责从RecordAccumulator中获取消息并将其发送到Kafka中。
RecordAccumulator 主要用来缓存消息以便 Sender 线程可以批量发送,进而减少网络传输的资源消耗以提升性能

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值