KafkaProducer源码

特征

线程安全

多个线程可以交叉调用

异步发送

内部有一个消息累加器RecordAccumulator作为缓冲池,里面包含多个ProducerRecord队列,用于异步接收KafkaProducer.send()发送的的消息并把消息发送到broker,发送消息时会唤醒一个IO线程名叫Sender

元数据Future

Future send(ProducerRecord<K,V>, Callback)异步发送,发送后立即返回一个凭证Future,RecordMetadata里是集群的主题分区副本元信息

核心参数

  1. acks:设为all是指isr中所有broker(0,all/-1,1)
  2. retries:消息发送失败后的重试次数
  3. batch.size和linger.ms:kafka 消息发送者为每一个分区维护一个未发送消息积压缓存区,其内存大小由batch.size指定,默认为 16K
    但如果缓存区中不足100条,但发送线程此时空闲,是需要等到缓存区中积满100条才能发送还是可以立即发送呢?默认是立即发送,即 batch.size 的作用其实是客户端一次发送到broker的最大消息数量。为了提高 kafka 消息发送的高吞吐量,即控制在缓存区中未积满 batch.size 时来控制 消息发送线程的行为,是立即发送还是等待一定时间,如果linger.ms 设置为 0表示立即发送,如果设置为大于0,则消息发送线程会等待这个值后才会向broker发送。该参数值会增加响应时间,但有利于增加吞吐量。有点类似于 TCP 领域的 Nagle 算法。
  4. buffer.memory:消息发送者内存总大小。超过该值,往缓存区中添加消息会被阻塞。阻塞的最大时间可通过参数 max.block.ms 设置,阻塞超过该值会抛出超时异常。
  5. key.serializer和value.serializer
  6. enable.idempotence:支持消息传递幂等,可以做到消息只会被传递一次,通过 enable.idempotence 为 true 来开启。如果该值设置为 true,其 retries 将设置为 Integer.MAX_VALUE,acks 将被设置为 all。为了确保消息发送幂等性,必须避免应用程序端的任何重试,并且如果消息发送API如果返回错误,应用端应该记录最后成功发送的消息,避免消息的重复发送。
  7. 0.11版本后开始支持幂等和事务消息

UML图

KafkaProducer

Producer接口方法

  • void initTransactions()
  • void beginTransaction()
    初始化与开启事务,执行事务方法时调用
  • void abortTransaction()
    回滚事务。
  • void commitTransaction()
    提交事务。
  • void sendOffsetsToTransaction(Map< TopicPartition, OffsetAndMetadata> offsets,String consumerGroupId)
  • void sendOffsetsToTransaction(Map< TopicPartition, OffsetAndMetadata> offsets,ConsumerGroupId)
    向消费组提交当前事务中的消息偏移量。
  • void flush()
    忽略 linger.ms 的值,直接唤醒IO线程,将缓冲区中的消息全部发送到 broker。
  • List< PartitionInfo> partitionsFor(String topic)
    获取 topic 的路由信息(分区信息)。
  • Map< MetricName, ? extends Metric> metrics()
    获取由生产者收集的统计信息。
  • Future< RecordMetadata> send(ProducerRecord<K, V> record)
  • Future< RecordMetadata> send(ProducerRecord<K, V> record, Callback callback)
    消息发送,该方法默认为异步发送,如果要实现同步发送的效果,对返回结果调用 get 方法即可。支持回调。
  • void close()
  • void close(Duration timeout)
    关闭或者定时关闭事务

KafkaProducer属性

  • Logger log
    日志记录
  • String JMX_PREFIX = “kafka.producer”
  • String NETWORK_THREAD_PREFIX = “kafka-producer-network-thread”
  • final String PRODUCER_METRIC_GROUP_NAME = “producer-metrics”
  • String clientId
    客户端ID。创建 KafkaProducer 时可通过 client.id 定义 clientId,如果未指定,则默认 producer-seq,seq 在线程内递增,强烈建议客户端显式指定 clientId。
  • Metrics metrics
    指标相关存储类,例如消息体大小,耗时等监控相关指标。
  • Partitioner partitioner
    分区负载均衡算法,通过参数 partitioner.class 指定。
  • int maxRequestSize
    调用 send 方法发送的最大请求大小,包括 key、消息体序列化后的消息总大小不能超过该值。通过参数 max.request.size 指定。
  • long totalMemorySize
    生产者缓存所占内存的总大小,通过参数 buffer.memory指定。
  • ProducerMetadata metadata
    例如 topic 的路由信息,由 KafkaProducer 自动更新。
  • RecordAccumulator accumulator
    消息累加器
  • Sender sender
    封装消息发送的逻辑,即向 broker 发送消息的处理逻辑。
  • Thread ioThread
    消息发送的后台线程,一个独立的线程,内部使用 Sender 来向 broker 发送消息。
  • CompressionType compressionType
    默认不启用压缩,compression.type配置可选值:none、gzip、snappy、lz4、zstd。
  • Sensor errors
    错误信息收集器,类似metrics,用于监控。
  • Time time
    获取系统时间或线程睡眠等。
  • Serializer keySerializer
    键序列化器
  • Serializer valueSerializer
    值序列化器
  • ProducerConfig producerConfig
    生产者配置
  • long maxBlockTimeMs
    最大阻塞时间,缓存已满时,消息发送会阻塞,等待多久会抛出异常,通过参数max.block.ms指定。
  • ProducerInterceptors<K, V> interceptors
    生产者消息拦截器,消息发送前定制化处理。
  • ApiVersions apiVersions
    维护 api 版本的相关元信息,该类只能在 kafka 内部使用。
  • TransactionManager transactionManager
    事务环境下上下文初始化结果

KafkaProducer核心方法

  • KafkaProducer(Map<String, Object> configs)
  • KafkaProducer(Map<String, Object> configs, Serializer keySerializer, Serializer valueSerializer)
  • KafkaProducer(Properties properties)
  • KafkaProducer(Properties properties, Serializer keySerializer, Serializer valueSerializer)
  • KafkaProducer(Map<String, Object> configs, Serializer keySerializer, Serializer valueSerializer, ProducerMetadata metadata, KafkaClient kafkaClient, ProducerInterceptors<K, V> interceptors, Time time)
    5个构造函数,最终都是调用最后一个构造函数,产生Sender线程、集群元数据,消息累加器,其中ioThread封装了Sender线程、Sender封装了KafkaClient(继承于NetworkClient)、元数据,最后启动ioThread
  • Sender newSender(LogContext logContext, KafkaClient kafkaClient, ProducerMetadata metadata)
    产生Sender线程
  • int lingerMs(ProducerConfig config)
    消息累加器中消息的等待时间,达到时间必须发出
  • int configureDeliveryTimeout(ProducerConfig config, Logger log)
  • TransactionManager configureTransactionState(ProducerConfig config, LogContext logContext)
  • int configureInflightRequests(ProducerConfig config)
  • short configureAcks(ProducerConfig config, Logger log)
  • Future send(ProducerRecord<K, V> record)
  • Future send(ProducerRecord<K, V> record, Callback callback)
  • void throwIfProducerClosed()
  • Future doSend(ProducerRecord<K, V> record, Callback callback)
  • void setReadOnly(Headers headers)
    设置请求头只读
  • KafkaProducer.ClusterAndWaitTime waitOnMetadata(String topic, Integer partition, long nowMs, long maxWaitMs)
  • void ensureValidRecordSize(int size)

KafkaProducer简单实例

package persistent.prestige.demo.kafka;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import java.util.Properties;
import java.util.concurrent.Future;
public class KafkaProducerTest {
    public static void main(String[] args){
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092,localhost:9082,localhost:9072,");
        props.put("acks", "all");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        Producer<String, String> producer = new KafkaProducer<>(props);
        try {
            for (int i = 0; i < 100; i++) {
                Future<RecordMetadata>  future = producer.send(new ProducerRecord<String, String>("TOPIC_ORDER", Integer.toString(i), Integer.toString(i)));
                RecordMetadata recordMetadata = future.get();
                System.out.printf("offset:" + recordMetadata.offset());
            }
        } catch (Throwable e) {
            e.printStackTrace();
        } finally {
            producer.close();
        }
    }
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是KafkaProducer库的相关源码: ```java import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.Producer; import org.apache.kafka.clients.producer.ProducerRecord; import java.util.Properties; public class KafkaProducerExample { public static void main(String[] args) { String topicName = "test-topic"; String key = "key1"; String value = "value1"; Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); Producer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>(topicName, key, value); producer.send(record); producer.close(); } } ``` 以上代码演示了如何创建一个Kafka生产者,并向特定主题发送一条消息。在这个例子中,我们使用了一个名为`test-topic`的主题,并将消息内容设置为`key1`和`value1`。 首先,我们需要定义所需的属性,例如Kafka服务器的地址、消息的键和值的序列化程序等。然后,我们创建一个KafkaProducer对象,并将属性传递给它。接下来,我们创建一个ProducerRecord对象,它包含有关要发送的消息的详细信息。最后,我们使用`send()`方法将消息发送到Kafka服务器,并使用`close()`方法关闭生产者。 注意,以上代码只是KafkaProducer库的一个简单示例,实际应用中可能需要更复杂的逻辑和更多的配置选项。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值