Producer拦截器(interceptor)是在Kafka 0.10版本被引入的,主要用于实现clients端的定制化控制逻辑。
对于producer而言,interceptor使得用户在消息发送前以及producer回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。同时,producer允许用户指定多个interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:
该方法封装进KafkaProducer.send方法中,即它运行在用户主线程中。Producer确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的topic和分区,否则会影响目标分区的计算。
(3)onAcknowledgement(RecordMetadata, Exception):
该方法会在消息被应答或消息发送失败时调用,并且通常都是在producer回调逻辑触发之前。onAcknowledgement运行在producer的IO线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢producer的消息发送效率。
如前所述,interceptor可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个interceptor,则producer将按照指定顺序调用它们,并仅仅是捕获每个interceptor可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。
案例:实现一个简单的双interceptor组成的拦截链。第一个interceptor会在消息发送前将时间戳信息加到消息value的最前部;第二个interceptor会在消息发送后更新成功发送消息数或失败发送消息数。
package com.intercetor;
import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import java.util.Map;
/**
* @Author: Dazhou Li
* @Description:时间拦截器
* @CreateDate: 2019/1/22 0022 21:08
*/
public class TimeIntercetor implements ProducerInterceptor<String, String> {
public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
return new ProducerRecord(record.topic(), record.key(), System.currentTimeMillis() + "-" + record.value());
}
public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
}
public void close() {
}
public void configure(Map<String, ?> map) {
}
}
②统计消息发送成功、失败数量
package com.intercetor;
import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import java.util.Map;
/**
* @Author: Dazhou Li
* @Description:统计拦截器
* @CreateDate: 2019/1/22 0022 21:11
*/
public class CountIntecetor implements ProducerInterceptor<String, String> {
private int successCount = 0;
private int errorCount = 0;
public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
return record;
}
public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
if (e == null) {
successCount++;
} else {
errorCount++;
}
}
public void close() {
System.out.println("发送成功:"+successCount+"条数据");
System.out.println("发送失败:"+errorCount+"条数据");
}
public void configure(Map<String, ?> map) {
}
}
③在producer主程序中添加拦截器的配置信息:
package com.producer;
import org.apache.kafka.clients.producer.*;
import java.util.ArrayList;
import java.util.Properties;
/**
* @Author: Dazhou Li
* @Description:
* @CreateDate: 2019/1/17 0017 21:54
*/
public class CustomerProducer {
public static void main(String[] args) {
Properties props = new Properties();
// Kafka服务端的主机名和端口号
props.put("bootstrap.servers", "s101:9092");
// 等待所有副本节点的应答
props.put("acks", "all");
// 消息发送最大尝试次数
props.put("retries", 0);
// 一批消息处理大小
props.put("batch.size", 16384);
// 请求延时
props.put("linger.ms", 1);
// 发送缓存区内存大小
props.put("buffer.memory", 33554432);
// key序列化
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
// value序列化
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
//添加自定义分区生产者的配置
//props.put("partitioner.class","com.producer.CustomerPartitioner");
//拦截器,list中添加的顺序就是拦截器执行的顺序
ArrayList<String> list = new ArrayList<String>();
list.add("com.intercetor.TimeIntercetor");
list.add("com.intercetor.CountIntecetor");
props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, list);
KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);
for (int i = 0; i < 10; i++) {
producer.send(new ProducerRecord<String, String>("second", String.valueOf(i)), new Callback() {
public void onCompletion(RecordMetadata recordMetadata, Exception e) {
if (e == null) { //发送数据成功,可打印分区、偏移量等信息
System.out.println(recordMetadata.partition() + "--" + recordMetadata.offset());
} else { //发送数据失败
System.out.println("打印失败");
}
}
});
}
producer.close();
}
}
④开启控制台消费者并查看结果: