kafka自定义生产者分区器、自定义消费者分区器

目录

1 默认分区

1.1 键key的作用

1.2 键的分区

2 生产者自定义分区

2.1 使用场景分析

2.2 自定义分区器要实现Partitioner接口

2.3 生产者使用分区器

3 消费者自定义分区

3.1 默认的分区策略

3.2 自定义分区策略

3.3 消费者使用自定义策略


1 默认分区

1.1 键key的作用

  1. 决定消息在主题的哪个分区
  2. 作为消息的附加信息

1.2 键的分区

如果key=null,并且采用默认分区器,就会轮询均匀分布在各个分区

如果key不为null,使用默认分区,会计算散列值,所以同一个key每次都会落到同一个分区上;如果增加了分区,就无法保证落到同一个分区上了

2 生产者自定义分区

2.1 使用场景分析

比如电商服务,大城市的业务量明显比中小城市高,可以单独为大城市自定义分区处理

2.2 自定义分区器要实现Partitioner接口

import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;
import org.apache.kafka.common.PartitionInfo;

import java.util.List;
import java.util.Map;

/**
 * 自定义分区器
 *
 * @author honry.guan
 * @date 2021-05-07 9:21
 */
public class MyPartitioner implements Partitioner {
    /**
     * 自定义分区方法
     */
    @Override
    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
        List<PartitionInfo> partitionInfos = cluster.availablePartitionsForTopic(topic);
        //分区数量
        int num = partitionInfos.size();
        //根据value与分区数求余的方式得到分区ID
        return value.hashCode() % num;
    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

2.3 生产者使用分区器

package cn.enjoyedu.selfpartition;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.Future;

/**
 * MyPartitionerProducer
 *
 * @author honry.guan
 * @date 2021-05-07 9:51
 */
public class MyPartitionerProducer {
    public static void main(String[] args) {
        Properties properties = new Properties();
        //配置连接ip和地址
        properties.put("bootstrap.servers", "127.0.0.1:9092");
        //kafka自带序列化器,可以不用谢全类路径StringSerializer.class也可以,这里作为演示
        properties.put("key.serializer", StringSerializer.class);
        properties.put("value.serializer", StringSerializer.class);
        properties.put("partitioner.class", MyPartitioner.class);
        KafkaProducer<String, String> producer = new KafkaProducer<>(properties);

        try {
            //使用自定义分区器
            ProducerRecord<String, String> producerRecord = new ProducerRecord<>("my-hello", "name", "tom");
            Future<RecordMetadata> send = producer.send(producerRecord);
            //这里会阻塞,直到发送成功
            RecordMetadata recordMetadata = send.get();
            if (recordMetadata != null) {
                System.out.println("偏移量:" + recordMetadata.offset() + "-" + "分区:" + recordMetadata.partition());
            }
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (ExecutionException e) {
            e.printStackTrace();
        } finally {
            //关闭连接
            producer.close();
        }
    }
}

3 消费者自定义分区

3.1 默认的分区策略

partition.assignment.strategy 分区分配给消费者的策略。系统提供两种策略。默认为 Range 。允许自定义策略。
分区有1,2,3,4,消费者有a,b
  1. Range 把主题的连续分区分配给消费者。(如果分区数量无法被消费者整除、第一个消费者会分到更多分区) :a管分区1,2,b管分区3,4
  2. RoundRobin 把主题的分区循环分配给消费者:a管分区1,3,b管分区2,4

3.2 自定义分区策略

以下是复制的RoundRobinAssignor对象中的实现方法

import org.apache.kafka.clients.consumer.internals.AbstractPartitionAssignor;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.utils.CircularIterator;
import org.apache.kafka.common.utils.Utils;

import java.util.*;

/**
 * @author: honry.guan
 * @create: 2021-05-07 21:52
 **/
public class MyCustomerPartitioner extends AbstractPartitionAssignor {
    /**
     *
     * @param partitionsPerTopic 所订阅的每个 topic 与其 partition 数的对应关系
     * @param subscriptions 每个 consumerId 与其所订阅的 topic 列表的关系。
     * @return
     */
    @Override
    public Map<String, List<TopicPartition>> assign(Map<String, Integer> partitionsPerTopic, Map<String, Subscription> subscriptions) {

        Map<String, List<TopicPartition>> assignment = new HashMap<>();
        for (String memberId : subscriptions.keySet())
            assignment.put(memberId, new ArrayList<>());

        CircularIterator<String> assigner = new CircularIterator<>(Utils.sorted(subscriptions.keySet()));
        for (TopicPartition partition : allPartitionsSorted(partitionsPerTopic, subscriptions)) {
            final String topic = partition.topic();
            while (!subscriptions.get(assigner.peek()).topics().contains(topic))
                assigner.next();
            assignment.get(assigner.next()).add(partition);
        }
        return assignment;
    }
    public List<TopicPartition> allPartitionsSorted(Map<String, Integer> partitionsPerTopic,
                                                    Map<String, Subscription> subscriptions) {
        SortedSet<String> topics = new TreeSet<>();
        for (Subscription subscription : subscriptions.values())
            topics.addAll(subscription.topics());

        List<TopicPartition> allPartitions = new ArrayList<>();
        for (String topic : topics) {
            Integer numPartitionsForTopic = partitionsPerTopic.get(topic);
            if (numPartitionsForTopic != null)
                allPartitions.addAll(AbstractPartitionAssignor.partitions(topic, numPartitionsForTopic));
        }
        return allPartitions;
    }
    @Override
    public String name() {
        return null;
    }
}

3.3 消费者使用自定义策略

 

public class HelloKafkaConsumer {

    public static void main(String[] args) {
        Properties properties = new Properties();
        properties.put("bootstrap.servers","127.0.0.1:9092");
        properties.put("key.deserializer", StringDeserializer.class);
        properties.put("value.deserializer", StringDeserializer.class);
        //使用自定义分区策略
        properties.put("partition.assignment.strategy", MyCustomerPartitioner.class);

        //群组
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test1");
        KafkaConsumer<String,String> consumer = new KafkaConsumer<String, String>(properties);
        try {
            //消费者订阅主题(可以多个)
            consumer.subscribe(Collections.singletonList(BusiConst.HELLO_TOPIC));
            while(true){
                //TODO 拉取(新版本)
                ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(500));
                for(ConsumerRecord<String, String> record:records){
                    System.out.println(String.format("topic:%s,分区:%d,偏移量:%d," + "key:%s,value:%s",record.topic(),record.partition(),
                            record.offset(),record.key(),record.value()));
                    //do my work
                    //打包任务投入线程池
                }
            }
        } finally {
            consumer.close();
        }

    }

}

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值