kafka学习记录三原理分析及API介绍

三 Kafka工作流程分析

 

目录

三 Kafka工作流程分析

3.1 Kafka生产过程分析

3.1.1 写入方式

3.1.2 分区(Partition)

3.1.3 副本(Replication)

3.1.4 写入流程

3.2 Broker 保存消息

3.2.1 存储方式

3.2.2 存储策略

3.2.3 Zookeeper存储结构

3.3 Kafka消费过程分析

3.3.1 消费模型

3.3.2 高级API

3.3.3 低级API

3.3.4 消费者组

3.3.5 消费方式

3.3.6 消费者组案例

四 Kafka API实战

4.1 环境准备

4.2 Kafka生产者Java API

4.2.1 创建生产者(过时的API)

4.2.2 创建生产者(新API)

4.2.3 创建生产者带回调函数(新API)

4.2.4 自定义分区生产者

4.3 Kafka消费者Java API

五 Kafka producer拦截器(interceptor)

5.1 拦截器原理

5.2 拦截器案例


3.1 Kafka生产过程分析

3.1.1 写入方式

producer采用推(push)模式将消息发布到broker,每条消息都被追加(append)到分区(patition)中,属于顺序写磁盘(顺序写磁盘效率比随机写内存要高,保障kafka吞吐率)。

3.1.2 分区(Partition)

       Kafka集群有多个消息代理服务器(broker-server)组成,发布到Kafka集群的每条消息都有一个类别,用主题(topic)来表示。通常,不同应用产生不同类型的数据,可以设置不同的主题。一个主题一般会有多个消息的订阅者,当生产者发布消息到某个主题时,订阅了这个主题的消费者都可以接收到生成者写入的新消息。

Kafka集群为每个主题维护了分布式的分区(partition)日志文件,物理意义上可以把主题(topic)看作进行了分区的日志文件(partition log)。主题的每个分区都是一个有序的、不可变的记录序列,新的消息会不断追加到日志中。分区中的每条消息都会按照时间顺序分配到一个单调递增的顺序编号,叫做偏移量(offset),这个偏移量能够唯一地定位当前分区中的每一条消息。

消息发送时都被发送到一个topic,其本质就是一个目录,而topic是由一些Partition Logs(分区日志)组成,其组织结构如下图所示:

下图中的topic3个分区,每个分区的偏移量都从0开始,不同分区之间的偏移量都是独立的,不会相互影响

我们可以看到,每个Partition中的消息都是有序的,生产的消息被不断追加到Partition log上,其中的每一个消息都被赋予了一个唯一的offset

发布到Kafka主题的每条消息包括键值和时间戳。消息到达服务器端的指定分区后,都会分配到一个自增的偏移量。原始的消息内容和分配的偏移量以及其他一些元数据信息最后都会存储到分区日志文件中。消息的键也可以不用设置,这种情况下消息会均衡地分布到不同的分区。

  1. 分区的原因

(1)方便在集群中扩展,每个Partition可以通过调整以适应它所在的机器,而一个topic又可以有多个Partition组成,因此整个集群就可以适应任意大小的数据了;

(2)可以提高并发,因为可以以Partition为单位读写了。

传统消息系统在服务端保持消息的顺序,如果有多个消费者消费同一个消息队列,服务端会以消费存储的顺序依次发送给消费者。但由于消息是异步发送给消费者的,消息到达消费者的顺序可能是无序的,这就意味着在并行消费时,传统消息系统无法很好地保证消息被顺序处理。虽然我们可以设置一个专用的消费者只消费一个队列,以此来解决消息顺序的问题,但是这就使得消费处理无法真正执行。

Kafka比传统消息系统有更强的顺序性保证,它使用主题的分区作为消息处理的并行单元。Kafka以分区作为最小的粒度,将每个分区分配给消费者组中不同的而且是唯一的消费者,并确保一个分区只属于一个消费者,即这个消费者就是这个分区的唯一读取线程。那么,只要分区的消息是有序的,消费者处理的消息顺序就有保证。每个主题有多个分区,不同的消费者处理不同的分区,所以Kafka不仅保证了消息的有序性,也做到了消费者的负载均衡。

2)分区的原则

(1)指定了patition,则直接使用;

(2)未指定patition但指定key,通过对key的value进行hash出一个patition

(3)patition和key都未指定,使用轮询选出一个patition。

DefaultPartitioner

public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {

        List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);

        int numPartitions = partitions.size();

        if (keyBytes == null) {

            int nextValue = nextValue(topic);

            List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);

            if (availablePartitions.size() > 0) {

                int part = Utils.toPositive(nextValue) % availablePartitions.size();

                return availablePartitions.get(part).partition();

            } else {

                // no partitions are available, give a non-available partition

                return Utils.toPositive(nextValue) % numPartitions;

            }

        } else {

            // hash the keyBytes to choose a partition

            return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;

        }

    }

3.1.3 副本(Replication)

同一个partition可能会有多个replication(对应 server.properties 配置中的 default.replication.factor=N)。没有replication的情况下,一旦broker 宕机,其上所有 patition 的数据都不可被消费,同时producer也不能再将数据存于其上的patition。引入replication之后,同一个partition可能会有多个replication,而这时需要在这些replication之间选出一个leader,producer和consumer只与这个leader交互,其它replication作为follower从leader 中复制数据。

3.1.4 写入流程

 producer写入消息流程如下:

1)producer先从zookeeper的 "/brokers/.../state"节点找到该partition的leader

2)producer将消息发送给该leader

3)leader将消息写入本地log

4)followers从leader pull消息,写入本地log后向leader发送ACK

5)leader收到所有ISR中的replication的ACK后,增加HW(high watermark,最后commit 的offset)并向producer发送ACK

3.2 Broker 保存消息

3.2.1 存储方式

物理上把topic分成一个或多个patition(对应 server.properties 中的num.partitions=3配置),每个patition物理上对应一个文件夹(该文件夹存储该patition的所有消息和索引文件),如下:

[wpf@kafka102 logs]$ ll

drwxrwxr-x. 2 wpf wpf  4096 8月   6 14:37 first-0

drwxrwxr-x. 2 wpf wpf  4096 8月   6 14:35 first-1

drwxrwxr-x. 2 wpf wpf  4096 8月   6 14:37 first-2

[wpf@kafka102 logs]$ cd first-0

[wpf@kafka102 first-0]$ ll

-rw-rw-r--. 1 wpf wpf 10485760 8月   6 14:33 00000000000000000000.index

-rw-rw-r--. 1 wpf wpf      219 8月   6 15:07 00000000000000000000.log

-rw-rw-r--. 1 wpf wpf 10485756 8月   6 14:33 00000000000000000000.timeindex

-rw-rw-r--. 1 wpf wpf        8 8月   6 14:37 leader-epoch-checkpoint

3.2.2 存储策略

无论消息是否被消费,kafka都会保留所有消息。有两种策略可以删除旧数据:

1)基于时间:log.retention.hours=168

2)基于大小:log.retention.bytes=1073741824

需要注意的是,因为Kafka读取特定消息的时间复杂度为O(1),即与文件大小无关,所以这里删除过期文件与提高 Kafka 性能无关。

3.2.3 Zookeeper存储结构

注意:producer不在zk中注册,消费者在zk中注册。

3.3 Kafka消费过程分析

kafka提供了两套consumer API:高级Consumer API和低级API。

3.3.1 消费模型

       消息由生产者发布到Kafka集群后,会被消费者消费。消息的消费模型有两种:推送模型(push)和拉取模型(pull)。基于推送模型(push)的消息系统,由消息代理记录消费者的消费状态。消息代理在将消息推送到消费者后,标记这条消息为已消费,但这种方式无法很好地保证消息被处理。比如,消息代理把消息发送出去后,当消费进程挂掉或者由于网络原因没有收到这条消息时,就有可能造成消息丢失(因为消息代理已经把这条消息标记为已消费了,但实际上这条消息并没有被实际处理)。如果要保证消息被处理,消息代理发送完消息后,要设置状态为“已发送”,只有收到消费者的确认请求后才更新为“已消费”,这就需要消息代理中记录所有的消费状态,这种做法显然是不可取的。

       Kafka采用拉取模型,由消费者自己记录消费状态,每个消费者互相独立地顺序读取每个分区的消息。如下图所示,有两个消费者(不同消费者组)拉取同一个主题的消息,消费者A的消费进度是3,消费者B的消费进度是6。消费者拉取的最大上限通过最高水位(watermark)控制,生产者最新写入的消息如果还没有达到备份数量,对消费者是不可见的。这种由消费者控制偏移量的优点是:消费者可以按照任意的顺序消费消息。比如,消费者可以重置到旧的偏移量,重新处理之前已经消费过的消息;或者直接跳到最近的位置,从当前的时刻开始消费。

    在一些消息系统中,消息代理会在消息被消费之后立即删除消息。如果有不同类型的消费者订阅同一个主题,消息代理可能需要冗余地存储同一消息;或者等所有消费者都消费完才删除,这就需要消息代理跟踪每个消费者的消费状态,这种设计很大程度上限制了消息系统的整体吞吐量和处理延迟。Kafka的做法是生产者发布的所有消息会一致保存在Kafka集群中,不管消息有没有被消费。用户可以通过设置保留时间来清理过期的数据,比如,设置保留策略为两天。那么,在消息发布之后,它可以被不同的消费者消费,在两天之后,过期的消息就会自动清理掉。

3.3.2 高级API

1)高级API优点

高级API 写起来简单

不需要自行去管理offset,系统通过zookeeper自行管理。

不需要管理分区,副本等情况,.系统自动管理。

消费者断线会自动根据上一次记录在zookeeper中的offset去接着获取数据(默认设置1分钟更新一下zookeeper中存的offset)

可以使用group来区分对同一个topic 的不同程序访问分离开来(不同的group记录不同的offset,这样不同程序读取同一个topic才不会因为offset互相影响)

2)高级API缺点

不能自行控制offset(对于某些特殊需求来说)

不能细化控制如分区、副本、zk等

3.3.3 低级API

1)低级 API 优点

能够让开发者自己控制offset,想从哪里读取就从哪里读取。

自行控制连接分区,对分区自定义进行负载均衡

对zookeeper的依赖性降低(如:offset不一定非要靠zk存储,自行存储offset即可,比如存在文件或者内存中)

2)低级API缺点

太过复杂,需要自行控制offset,连接哪个分区,找到分区leader 等。

3.3.4 消费者组

消费者是以consumer group消费者组的方式工作,由一个或者多个消费者组成一个组,共同消费一个topic。每个分区在同一时间只能由group中的一个消费者读取,但是多个group可以同时消费这个partition。在图中,有一个由三个消费者组成的group,有一个消费者读取主题中的两个分区,另外两个分别读取一个分区。某个消费者读取某个分区,也可以叫做某个消费者是某个分区的拥有者。

在这种情况下,消费者可以通过水平扩展的方式同时读取大量的消息。另外,如果一个消费者失败了,那么其他的group成员会自动负载均衡读取之前失败的消费者读取的分区。

3.3.5 消费方式

consumer采用pull(拉)模式从broker中读取数据。

push(推)模式很难适应消费速率不同的消费者,因为消息发送速率是由broker决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成consumer来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而pull模式则可以根据consumer的消费能力以适当的速率消费消息。

对于Kafka而言,pull模式更合适,它可简化broker的设计,consumer可自主控制消费消息的速率,同时consumer可以自己控制消费方式——即可批量消费也可逐条消费,同时还能选择不同的提交方式从而实现不同的传输语义。

pull模式不足之处是,如果kafka没有数据,消费者可能会陷入循环中,一直等待数据到达。为了避免这种情况,我们在我们的拉请求中有参数,允许消费者请求在等待数据到达的“长轮询”中进行阻塞(并且可选地等待到给定的字节数,以确保大的传输大小)。

3.3.6 消费者组案例

1)需求:测试同一个消费者组中的消费者,同一时刻只能有一个消费者消费。

2)案例实操

       (1)在kafka102、kafka103上修改/opt/module/kafka/config/consumer.properties配置文件中的group.id属性为任意组名。

[wpf@kafka103 config]$ vi consumer.properties

                  group.id=wpf

       (2)在kafka102、kafka103上分别启动消费者

[wpf@kafka102 kafka]$ bin/kafka-console-consumer.sh --zookeeper kafka102:2181 --topic first --consumer.config config/consumer.properties

[wpf@kafka103 kafka]$ bin/kafka-console-consumer.sh --zookeeper kafka102:2181 --topic first --consumer.config config/consumer.properties

       (3)在kafka104上启动生产者

[wpf@kafka104 kafka]$ bin/kafka-console-producer.sh --broker-list kafka102:9092 --topic first

>hello world

       (4)查看kafka102和kafka103的接收者。

              同一时刻只有一个消费者接收到消息。

Kafka API实战

4.1 环境准备

1)在eclipse中创建一个java工程

2)在工程的根目录创建一个lib文件夹

3)解压kafka安装包,将安装包libs目录下的jar包拷贝到工程的lib目录下,并build path。

4)启动zk和kafka集群,在kafka集群中打开一个消费者

[wpf@kafka102 kafka]$ bin/kafka-console-consumer.sh --zookeeper kafka102:2181 --topic first

4.2 Kafka生产者Java API

4.2.1 创建生产者(过时的API)

package com.wpf.kafka;

import java.util.Properties;

import kafka.javaapi.producer.Producer;

import kafka.producer.KeyedMessage;

import kafka.producer.ProducerConfig;

 

public class OldProducer {

 

       @SuppressWarnings("deprecation")

       public static void main(String[] args) {

            

              Properties properties = new Properties();

              properties.put("metadata.broker.list", "kafka102:9092");

              properties.put("request.required.acks", "1");

              properties.put("serializer.class", "kafka.serializer.StringEncoder");

              Producer<Integer, String> producer = new Producer<Integer,String>(new ProducerConfig(properties));

              KeyedMessage<Integer, String> message = new KeyedMessage<Integer, String>("first", "hello world");

              producer.send(message );

       }

}

4.2.2 创建生产者(新API)

package com.wpf.kafka;

import java.util.Properties;

import org.apache.kafka.clients.producer.KafkaProducer;

import org.apache.kafka.clients.producer.Producer;

import org.apache.kafka.clients.producer.ProducerRecord;

 

public class NewProducer {

 

       public static void main(String[] args) {

             

              Properties props = new Properties();

              // Kafka服务端的主机名和端口号

              props.put("bootstrap.servers", "kafka103:9092");

              // 等待所有副本节点的应答

              props.put("acks", "all");

              // 消息发送最大尝试次数

              props.put("retries", 0);

              // 一批消息处理大小

              props.put("batch.size", 16384);

              // 请求延时

              props.put("linger.ms", 1);

              // 发送缓存区内存大小

              props.put("buffer.memory", 33554432);

              // key序列化

              props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

              // value序列化

              props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

 

              KafkaProducer<String, String> producer = new KafkaProducer<>(props);

              for (int i = 0; i < 50; i++) {

                     producer.send(new ProducerRecord<String, String>("first", Integer.toString(i), "hello world-" + i));

              }

 

              producer.close();

       }

}

 

4.2.3 创建生产者带回调函数(新API)

package com.wpf.kafka;

import java.util.Properties;

import org.apache.kafka.clients.producer.Callback;

import org.apache.kafka.clients.producer.KafkaProducer;

import org.apache.kafka.clients.producer.ProducerRecord;

import org.apache.kafka.clients.producer.RecordMetadata;

 

public class CallBackProducer {

 

       public static void main(String[] args) {

 

Properties props = new Properties();

              // Kafka服务端的主机名和端口号

              props.put("bootstrap.servers", "kafka103:9092");

              // 等待所有副本节点的应答

              props.put("acks", "all");

              // 消息发送最大尝试次数

              props.put("retries", 0);

              // 一批消息处理大小

              props.put("batch.size", 16384);

              // 增加服务端请求延时

              props.put("linger.ms", 1);

// 发送缓存区内存大小

              props.put("buffer.memory", 33554432);

              // key序列化

              props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

              // value序列化

              props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

 

              KafkaProducer<String, String> kafkaProducer = new KafkaProducer<>(props);

 

              for (int i = 0; i < 50; i++) {

 

                     kafkaProducer.send(new ProducerRecord<String, String>("first", "hello" + i), new Callback() {

 

                            @Override

                            public void onCompletion(RecordMetadata metadata, Exception exception) {

 

                                   if (metadata != null) {

 

                                          System.out.println(metadata.partition() + "---" + metadata.offset());

                                   }

                            }

                     });

              }

              kafkaProducer.close();

       }

}

 

4.2.4 自定义分区生产者

0)需求:将所有数据存储到topic的第0号分区上

1)定义一个类实现Partitioner接口,重写里面的方法(过时API)

package com.wpf.kafka;

import java.util.Map;

import kafka.producer.Partitioner;

 

public class CustomPartitioner implements Partitioner {

       public CustomPartitioner() {

              super();

       }

       @Override

       public int partition(Object key, int numPartitions) {

              // 控制分区

              return 0;

       }

}

2)自定义分区(新API)

package com.wpf.kafka;

import java.util.Map;

import org.apache.kafka.clients.producer.Partitioner;

import org.apache.kafka.common.Cluster;

 

public class CustomPartitioner implements Partitioner {

 

       @Override

       public void configure(Map<String, ?> configs) {

             

       }

       @Override

       public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {

        // 控制分区

              return 0;

       }

       @Override

       public void close() {

             

       }

}

3)在代码中调用

package com.wpf.kafka;

import java.util.Properties;

import org.apache.kafka.clients.producer.KafkaProducer;

import org.apache.kafka.clients.producer.Producer;

import org.apache.kafka.clients.producer.ProducerRecord;

 

public class PartitionerProducer {

 

       public static void main(String[] args) {

             

              Properties props = new Properties();

              // Kafka服务端的主机名和端口号

              props.put("bootstrap.servers", "kafka103:9092");

              // 等待所有副本节点的应答

              props.put("acks", "all");

              // 消息发送最大尝试次数

              props.put("retries", 0);

              // 一批消息处理大小

              props.put("batch.size", 16384);

              // 增加服务端请求延时

              props.put("linger.ms", 1);

              // 发送缓存区内存大小

              props.put("buffer.memory", 33554432);

              // key序列化

              props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

              // value序列化

              props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

              // 自定义分区

              props.put("partitioner.class", "com.wpf.kafka.CustomPartitioner");

              Producer<String, String> producer = new KafkaProducer<>(props);

              producer.send(new ProducerRecord<String, String>("first", "1", "wpf"));

              producer.close();

       }

}

4)测试

       (1)在kafka102上监控/opt/module/kafka/logs/目录下first主题3个分区的log日志动态变化情况

[wpf@kafka102 first-0]$ tail -f 00000000000000000000.log

[wpf@kafka102 first-1]$ tail -f 00000000000000000000.log

[wpf@kafka102 first-2]$ tail -f 00000000000000000000.log

       (2)发现数据都存储到指定的分区了。

4.3 Kafka消费者Java API

0)在控制台创建发送者

[wpf@kafka104 kafka]$ bin/kafka-console-producer.sh --broker-list kafka102:9092 --topic first

>hello world

1)创建消费者(过时API)

package com.wpf.kafka.consume;

import java.util.HashMap;

import java.util.List;

import java.util.Map;

import java.util.Properties;

import kafka.consumer.Consumer;

import kafka.consumer.ConsumerConfig;

import kafka.consumer.ConsumerIterator;

import kafka.consumer.KafkaStream;

import kafka.javaapi.consumer.ConsumerConnector;

 

public class CustomConsumer {

 

       @SuppressWarnings("deprecation")

       public static void main(String[] args) {

              Properties properties = new Properties();           

              properties.put("zookeeper.connect", "kafka102:2181");

              properties.put("group.id", "g1");

              properties.put("zookeeper.session.timeout.ms", "500");

              properties.put("zookeeper.sync.time.ms", "250");

              properties.put("auto.commit.interval.ms", "1000");            

              // 创建消费者连接器

              ConsumerConnector consumer = Consumer.createJavaConsumerConnector(new ConsumerConfig(properties));             

              HashMap<String, Integer> topicCount = new HashMap<>();

              topicCount.put("first", 1)            

              Map<String, List<KafkaStream<byte[], byte[]>>> consumerMap = consumer.createMessageStreams(topicCount);

             

              KafkaStream<byte[], byte[]> stream = consumerMap.get("first").get(0);

             

              ConsumerIterator<byte[], byte[]> it = stream.iterator();

             

              while (it.hasNext()) {

                     System.out.println(new String(it.next().message()));

              }

       }

}

2)官方提供案例(自动维护消费情况)(新API)

package com.wpf.kafka.consume;

import java.util.Arrays;

import java.util.Properties;

import org.apache.kafka.clients.consumer.ConsumerRecord;

import org.apache.kafka.clients.consumer.ConsumerRecords;

import org.apache.kafka.clients.consumer.KafkaConsumer;

 

public class CustomNewConsumer {

 

       public static void main(String[] args) {

 

              Properties props = new Properties();

              // 定义kakfa 服务的地址,不需要将所有broker指定上

              props.put("bootstrap.servers", "kafka102:9092");

              // 制定consumer group

              props.put("group.id", "test");

              // 是否自动确认offset

              props.put("enable.auto.commit", "true");

              // 自动确认offset的时间间隔

              props.put("auto.commit.interval.ms", "1000");

              // key的序列化类

              props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

              // value的序列化类

              props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

              // 定义consumer

              KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);

             

              // 消费者订阅的topic, 可同时订阅多个

              consumer.subscribe(Arrays.asList("first", "second","third"));

 

              while (true) {

                     // 读取数据,读取超时时间为100ms

                     ConsumerRecords<String, String> records = consumer.poll(100);

                    

                     for (ConsumerRecord<String, String> record : records)

                            System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());

              }

       }

}

Kafka producer拦截器(interceptor)

5.1 拦截器原理

Producer拦截器(interceptor)是在Kafka 0.10版本被引入的,主要用于实现clients端的定制化控制逻辑。

对于producer而言,interceptor使得用户在消息发送前以及producer回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。同时,producer允许用户指定多个interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:

(1)configure(configs)

获取配置信息和初始化数据时调用。

(2)onSend(ProducerRecord):

该方法封装进KafkaProducer.send方法中,即它运行在用户主线程中。Producer确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的topic和分区,否则会影响目标分区的计算

(3)onAcknowledgement(RecordMetadata, Exception):

该方法会在消息被应答或消息发送失败时调用,并且通常都是在producer回调逻辑触发之前。onAcknowledgement运行在producer的IO线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢producer的消息发送效率

(4)close:

关闭interceptor,主要用于执行一些资源清理工作

如前所述,interceptor可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个interceptor,则producer将按照指定顺序调用它们,并仅仅是捕获每个interceptor可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

5.2 拦截器案例

1)需求:

实现一个简单的双interceptor组成的拦截链。第一个interceptor会在消息发送前将时间戳信息加到消息value的最前部;第二个interceptor会在消息发送后更新成功发送消息数或失败发送消息数。

2)案例实操

(1)增加时间戳拦截器

package com.wpf.kafka.interceptor;

import java.util.Map;

import org.apache.kafka.clients.producer.ProducerInterceptor;

import org.apache.kafka.clients.producer.ProducerRecord;

import org.apache.kafka.clients.producer.RecordMetadata;

 

public class TimeInterceptor implements ProducerInterceptor<String, String> {

 

       @Override

       public void configure(Map<String, ?> configs) {

 

       }

 

       @Override

       public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {

              // 创建一个新的record,把时间戳写入消息体的最前部

              return new ProducerRecord(record.topic(), record.partition(), record.timestamp(), record.key(),

                            System.currentTimeMillis() + "," + record.value().toString());

       }

 

       @Override

       public void onAcknowledgement(RecordMetadata metadata, Exception exception) {

 

       }

 

       @Override

       public void close() {

 

       }

}

(2)统计发送消息成功和发送失败消息数,并在producer关闭时打印这两个计数器

package com.wpf.kafka.interceptor;

import java.util.Map;

import org.apache.kafka.clients.producer.ProducerInterceptor;

import org.apache.kafka.clients.producer.ProducerRecord;

import org.apache.kafka.clients.producer.RecordMetadata;

 

public class CounterInterceptor implements ProducerInterceptor<String, String>{

    private int errorCounter = 0;

    private int successCounter = 0;

 

       @Override

       public void configure(Map<String, ?> configs) {

             

       }

 

       @Override

       public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {

               return record;

       }

 

       @Override

       public void onAcknowledgement(RecordMetadata metadata, Exception exception) {

              // 统计成功和失败的次数

        if (exception == null) {

            successCounter++;

        } else {

            errorCounter++;

        }

       }

 

       @Override

       public void close() {

        // 保存结果

        System.out.println("Successful sent: " + successCounter);

        System.out.println("Failed sent: " + errorCounter);

       }

}

(3)producer主程序

package com.wpf.kafka.interceptor;

import java.util.ArrayList;

import java.util.List;

import java.util.Properties;

import org.apache.kafka.clients.producer.KafkaProducer;

import org.apache.kafka.clients.producer.Producer;

import org.apache.kafka.clients.producer.ProducerConfig;

import org.apache.kafka.clients.producer.ProducerRecord;

 

public class InterceptorProducer {

 

       public static void main(String[] args) throws Exception {

              // 1 设置配置信息

              Properties props = new Properties();

              props.put("bootstrap.servers", "kafka102:9092");

              props.put("acks", "all");

              props.put("retries", 0);

              props.put("batch.size", 16384);

              props.put("linger.ms", 1);

              props.put("buffer.memory", 33554432);

              props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

              props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

             

              // 2 构建拦截链

              List<String> interceptors = new ArrayList<>();

              interceptors.add("com.wpf.kafka.interceptor.TimeInterceptor");   interceptors.add("com.wpf.kafka.interceptor.CounterInterceptor");

              props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, interceptors);

               

              String topic = "first";

              Producer<String, String> producer = new KafkaProducer<>(props);

             

              // 3 发送消息

              for (int i = 0; i < 10; i++) {

                    

                  ProducerRecord<String, String> record = new ProducerRecord<>(topic, "message" + i);

                  producer.send(record);

              }

               

              // 4 一定要关闭producer,这样才会调用interceptor的close方法

              producer.close();

       }

}

3)测试

(1)在kafka上启动消费者,然后运行客户端java程序。

[wpf@kafka102 kafka]$ bin/kafka-console-consumer.sh --zookeeper kafka102:2181 --from-beginning --topic first

1501904047034,message0

1501904047225,message1

1501904047230,message2

1501904047234,message3

1501904047236,message4

1501904047240,message5

1501904047243,message6

1501904047246,message7

1501904047249,message8

1501904047252,message9

(2)观察java平台控制台输出数据如下:

Successful sent: 10

Failed sent: 0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

指挥官飞飞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值