KafKa常用JavaApi10道例题(送答案)

以下kafka集群的节点分别是node01,node02,node03

1、在kafka集群中创建student主题 副本为2个,分区为3个

生产者设置:
设置key的序列化为  org.apache.kafka.common.serialization. StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
其他都是默认设置
消费者设置:
消费者组id为test
设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer
其他都是默认设置
模拟生产者,请写出代码向student主题中生产数据0-99
模拟消费者,请写出代码把student主题中的数据0-99消费掉,打印输出到控制台

private static final String TOPIC="student";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
   // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /**
     * 生产者设置:
     */
     static{
         Properties configs = initConfig();
         producer = new KafkaProducer<String, String>(configs);
     }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     *  消费者设置:
      */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        //消费组id
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        //序列化信息
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic student
//        模拟生产者
        try {
            for (int i = 0; i <100; i++) {
                //当没有指定分区号和key时使用轮训策略存储数据
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,""+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(1000);
                //遍历所有数据
                for (ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                    //获取一条数据内的信息
                    try {
                        System.out.println("数据是"+consumerRecord.value()+"偏移量是"+consumerRecord.offset());
                    }catch (Exception e){
                        e.printStackTrace();
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

2、在kafka集群中创建teacher主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为2
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为默认轮询方式

消费者设置:
消费者组id为test
设置自动提交偏移量
设置自动提交偏移量的时间间隔
设置 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费

auto.offset.reset

//earliest: 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
//latest: 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
//none : topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常

设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer

模拟生产者,请写出代码向teacher主题中生产数据bigdata0-bigdata99
模拟消费者,请写出代码把teacher主题中的数据bigdata0-bigdata99消费掉 ,打印输出到控制台
private static final String TOPIC="teacher";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /*
     * 	生产者设置:
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,2);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 	消费者设置:
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic teacher
//        模拟生产者
        try {
            for (int i = 0; i <100; i++) {
                //当没有指定分区号和key时使用轮训策略存储数据
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"bigdata"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(1000);
                //遍历所有数据
                for (ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                    //获取一条数据内的信息
                    try {
                        System.out.println("数据是"+consumerRecord.value()+"偏移量是"+consumerRecord.offset());
                    }catch (Exception e){
                        e.printStackTrace();
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

3、在kafka集群中创建title主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为1
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为指定数据key为title,分发到同一个分区中

消费者设置:
消费者组id为test
设置自动提交偏移量
设置自动提交偏移量的时间间隔
设置 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer

模拟生产者,请写出代码向title主题中生产数据kafka0-kafka99
模拟消费者,请写出代码把title主题中的数据kafka0-kafka99消费掉 ,打印输出到控制台
private static final String TOPIC="title";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /*
     *
     * 生产者设置:
     *消息确认机制 为all
     *重试次数 为1
     *批量处理消息字节数 为16384
     *设置缓冲区大小 为 33554432
     *设置每条数据生产延迟1ms
     *设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
     *设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
     *数据分发策略为指定数据key为title,分发到同一个分区中
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,1);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 	消费者组id为test
     * 	设置自动提交偏移量
     * 	设置自动提交偏移量的时间间隔
     * 	设置 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
     * 	设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
     * 	设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"latest");
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建teacher主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic teacher
//                其他都是默认设置
//        模拟生产者,请写出代码向student主题中生产数据bigdata0-bigdata99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //数据分发策略为指定数据key为title,分发到同一个分区中
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"title","kafka"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把student主题中的数据0-99消费掉,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(1000);
                //遍历所有数据
                for (ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                    //获取一条数据内的信息
                    try {
                        System.out.println("数据是"+consumerRecord.value()+"偏移量是"+consumerRecord.offset());
                    }catch (Exception e){
                        e.printStackTrace();
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

4、在kafka集群中创建title主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为2
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为指定分区2,把数据发送到指定的分区中

消费者设置:
消费者组id为test
设置自动提交偏移量
设置自动提交偏移量的时间间隔
设置 topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer

模拟生产者,请写出代码向title主题中生产数据test0-test99
模拟消费者,请写出代码把title主题中的数据test0-test99消费掉 ,打印输出到控制台
private static final String TOPIC="kafka";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /*
     *	消息确认机制 为all
	 * 重试次数 为2
	 * 批量处理消息字节数 为16384
	 * 设置缓冲区大小 为 33554432
	 * 设置每条数据生产延迟1ms
	 * 设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 数据分发策略为指定分区2,把数据发送到指定的分区中
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,2);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 	消费者设置:
     * 	消费者组id为test
     * 	设置自动提交偏移量
     * 	设置自动提交偏移量的时间间隔
     * 	设置 topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
     * 	设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
     * 	设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        TopicPartition topicPartition = new TopicPartition(TOPIC,2);
        kafkaConsumer.assign(Arrays.asList(topicPartition));
        //!!!!!!!Caused by: java.lang.IllegalStateException: Subscription to topics, partitions and pattern are mutually exclusive
        //从异常信息可以看出订阅的主题和分区模式有冲突
//        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"latest");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建teacher主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic teacher
//                其他都是默认设置
//        模拟生产者,请写出代码向student主题中生产数据bigdata0-bigdata99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //数据分发策略为指定数据key为title,分发到同一个分区中
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"kafka"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把student主题中的数据0-99消费掉,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

5、在kafka集群中创建order主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为1
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为自定义,请把生产的数据100以内的数据分发到分区0中,100-200以内的数据分发到分区1中,200-300内的数据分发到分区2中

消费者设置:
消费者组id为test
设置自动提交偏移量
设置自动提交偏移量的时间间隔
设置当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer

模拟生产者,请写出代码向title主题中生产数据0-299
模拟消费者,请写出代码把title主题中的数据0-299消费掉 ,打印输出到控制台

private static final String TOPIC="order";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /*
     *生产者设置:
	 *消息确认机制 为all
	 *重试次数 为1
	 *批量处理消息字节数 为16384
	 *设置缓冲区大小 为 33554432
	 *设置每条数据生产延迟1ms
	 *设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
	 *设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
	 *数据分发策略为自定义,请把生产的数据100以内的数据分发到分区0中,100-200以内的数据分发到分区1中,200-300内的数据分发到分区2中
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,1);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG,"com.czxy.homework.ProducerPartition");
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 	消费者设置:
     * 	消费者组id为test
     * 	设置自动提交偏移量
     * 	设置自动提交偏移量的时间间隔
     * 	设置当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
     * 	设置key的序列化为org.apache.kafka.common.serialization. StringDeserializer
     * 	设置value的序列化为org.apache.kafka.common.serialization. StringDeserializer
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
//        kafkaConsumer.assign(Arrays.asList(topicPartition1,topicPartition2));
        //!!!!!!!Caused by: java.lang.IllegalStateException: Subscription to topics, partitions and pattern are mutually exclusive
        //从异常信息可以看出订阅的主题和分区模式有冲突
        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){

//        1、在kafka集群中创建teacher主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic order
//                其他都是默认设置
//        模拟生产者,请写出代码向student主题中生产数据bigdata0-bigdata99
        //2、通过实例发送数据到kafka集群
        //        模拟生产者,请写出代码向title主题中生产数据0-299
        try {
            for (int i = 0; i <300; i++) {
                //数据分发策略为指定数据key为title,分发到同一个分区中
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,""+i,""+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把title主题中的数据0-299消费掉 ,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }
/*
实现自定义分区
 */
public class ProducerPartition implements Partitioner {
    @Override
    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {

        /*
        自己编写分区原则
         */
        int partition = 0;
        int index = Integer.parseInt(new String(keyBytes));
        if(index<100){
            partition = 0;
        }else if(index<200){
            partition = 1;
        }else{
            partition = 2;
        }
        return partition;

    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> configs) {

    }
}

6、在kafka集群中创建18BD-10主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为2
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为指定分区2,把数据发送到指定的分区中

消费者设置:
消费者组id为test
设置自动提交偏移量
设置自动提交偏移量的时间间隔
设置 topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
消费指定分区2中的数据

模拟生产者,请写出代码向18BD-10主题中生产数据test0-test99
模拟消费者,请写出代码把18BD-10主题中的2号分区的数据消费掉 ,打印输出到控制台
private static final String TOPIC="18BD-10";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /*
     *	生产者设置:
	 * 消息确认机制 为all
	 * 重试次数 为2
	 * 批量处理消息字节数 为16384
	 * 设置缓冲区大小 为 33554432
	 * 设置每条数据生产延迟1ms
	 * 设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 数据分发策略为指定分区2,把数据发送到指定的分区中
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,2);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 	消费者设置:
     * 	消费者组id为test
     * 	设置自动提交偏移量
     * 	设置自动提交偏移量的时间间隔
     * 	设置 topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常
     * 	设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	消费指定分区2中的数据
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        TopicPartition topicPartition = new TopicPartition(TOPIC,2);
        kafkaConsumer.assign(Arrays.asList(topicPartition));
        //!!!!!!!Caused by: java.lang.IllegalStateException: Subscription to topics, partitions and pattern are mutually exclusive
        //从异常信息可以看出订阅的主题和分区模式有冲突
//        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"latest");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建teacher主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic teacher
//                其他都是默认设置
//        模拟生产者,请写出代码向18BD-10主题中生产数据test0-test99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //数据分发策略为指定数据key为title,分发到同一个分区中
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,""+i,"test"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把18BD-10主题中的2号分区的数据消费掉 ,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

7、在kafka集群中创建18BD-20主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为1
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为轮询方式发送到每个分区中
手动提交每条数据

消费者设置:
消费者组id为test
设置手动提交偏移量
设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer

模拟生产者,请写出代码向18BD-20主题中生产数据test0-test99
模拟消费者,请写出代码把18BD-20主题中的2号分区的数据消费掉 ,打印输出到控制台
 private static final String TOPIC="18BD-20";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /**
     *
     * 生产者设置:
	 * 消息确认机制 为all
	 * 重试次数 为1
	 * 批量处理消息字节数 为16384
	 * 设置缓冲区大小 为 33554432
	 * 设置每条数据生产延迟1ms
	 * 设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 数据分发策略为轮询方式发送到每个分区中
	 * 手动提交每条数据
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,1);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 		消费者组id为test
     * 	设置手动提交偏移量
     * 	设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        TopicPartition topicPartition = new TopicPartition(TOPIC,2);
        kafkaConsumer.assign(Arrays.asList(topicPartition));
//        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建18BD-20主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic 18BD-20
//                其他都是默认设置
//        模拟生产者,请写出代码向18BD-20主题中生产数据test0-test99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //当没有指定分区号和key时使用轮训(轮训分区)策略存储数据
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"test"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把18BD-20主题中的2号分区的数据消费掉 ,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
                kafkaConsumer.commitSync();
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

8、在kafka集群中创建18BD-30主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为1
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为轮询方式发送到每个分区中

消费者设置:
消费者组id为test
设置手动提交偏移量
设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
依次消费完每个分区之后手动提交offset


模拟生产者,请写出代码向18BD-30主题中生产数据test0-test99
模拟消费者,请写出代码把18BD-30主题中的2号分区的数据消费掉 ,打印输出到控制台
private static final String TOPIC="18BD-30";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /**
     *
     * 生产者设置:
	 * 消息确认机制 为all
	 * 重试次数 为1
	 * 批量处理消息字节数 为16384
	 * 设置缓冲区大小 为 33554432
	 * 设置每条数据生产延迟1ms
	 * 设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
	 * 数据分发策略为轮询方式发送到每个分区中
	 * 手动提交每条数据
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,1);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 		消费者组id为test
     * 	设置手动提交偏移量
     * 	设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        TopicPartition topicPartition = new TopicPartition(TOPIC,2);
        kafkaConsumer.assign(Arrays.asList(topicPartition));
//        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建18BD-30主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic 18BD-30
//                其他都是默认设置
//        模拟生产者,请写出代码向18BD-30主题中生产数据test0-test99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //当没有指定分区号和key时使用轮训(轮训分区)策略存储数据
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"test"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把18BD-30主题中的2号分区的数据消费掉 ,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
                kafkaConsumer.commitSync();
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

9、在kafka集群中创建18BD-40主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为1
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为轮询方式发送到每个分区中

消费者设置:
消费者组id为test
设置自动提交偏移量
设置当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
消费指定分区0和分区2中的数据

模拟生产者,请写出代码向18BD-40主题中生产数据test0-test99
模拟消费者,请写出代码把18BD-40主题中的0和2号分区的数据消费掉 ,打印输出到控制台
 private static final String TOPIC="18BD-40";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /**
     *
     * 	生产者设置:
     * 	消息确认机制 为all
     * 	重试次数 为1
     * 	批量处理消息字节数 为16384
     * 	设置缓冲区大小 为 33554432
     * 	设置每条数据生产延迟1ms
     * 	设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
     * 	设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
     * 	数据分发策略为轮询方式发送到每个分区中
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,1);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 		消费者设置:
     * 	消费者组id为test
     * 	设置自动提交偏移量
     * 	设置当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
     * 	设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	消费指定分区0和分区2中的数据
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        TopicPartition topicPartition = new TopicPartition(TOPIC,0);
        TopicPartition topicPartition1 = new TopicPartition(TOPIC,2);
        kafkaConsumer.assign(Arrays.asList(topicPartition,topicPartition1));
//        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建18BD-40主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic 18BD-40
//                其他都是默认设置
//        模拟生产者,请写出代码向18BD-40主题中生产数据test0-test99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //当没有指定分区号和key时使用轮训(轮训分区)策略存储数据
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"test"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把18BD-40主题中的0和2号分区的数据消费掉 ,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }

10、在kafka集群中创建18BD-50主题 副本为2个,分区为3个

生产者设置:
消息确认机制 为all
重试次数 为1
批量处理消息字节数 为16384
设置缓冲区大小 为 33554432
设置每条数据生产延迟1ms
设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
数据分发策略为轮询方式发送到每个分区中

消费者设置:
消费者组id为test
设置自动提交偏移量
设置当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
消费指定分区0和分区2中的数据,并且设置消费0分区的数据offerset值从0开始,消费2分区的数据offerset值从10开始

模拟生产者,请写出代码向18BD-50主题中生产数据test0-test99
模拟消费者,请写出代码把18BD-50主题中的0和2号分区的数据消费掉 ,打印输出到控制台
private static final String TOPIC="18BD-50";
    private static final String BROKER_LIST="node01:9092,node02:9092,node03:9092";
    //实例化生产者对象
    private static KafkaProducer<String,String> producer = null;
    // 实例化消费者对象
    private static KafkaConsumer<String,String> kafkaConsumer = null;

    /**
     *
     * 		生产者设置:
     * 	消息确认机制 为all
     * 	重试次数 为1
     * 	批量处理消息字节数 为16384
     * 	设置缓冲区大小 为 33554432
     * 	设置每条数据生产延迟1ms
     * 	设置key的序列化为org.apache.kafka.common.serialization.StringSerializer
     * 	设置value的序列化为org.apache.kafka.common.serialization.StringSerializer
     * 	数据分发策略为轮询方式发送到每个分区中
     */
    static{
        Properties configs = initConfig();
        producer = new KafkaProducer<String, String>(configs);
    }
    private static Properties initConfig(){
        Properties props= new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        props.put(ProducerConfig.ACKS_CONFIG,"all");
        props.put(ProducerConfig.RETRIES_CONFIG,1);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG,16384);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG,33554432);
        props.put(ProducerConfig.LINGER_MS_CONFIG,1);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
        return props;
    }
    /**
     * 		消费者设置:
     * 	消费者组id为test
     * 	设置自动提交偏移量
     * 	设置当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
     * 	设置key的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	设置value的反序列化为org.apache.kafka.common.serialization.StringDeserializer
     * 	消费指定分区0和分区2中的数据,并且设置消费0分区的数据offerset值从0开始,消费2分区的数据offerset值从10开始
     */
    static {
        Properties properties = initConfig1();
        kafkaConsumer = new KafkaConsumer<String, String>(properties);
        TopicPartition topicPartition = new TopicPartition(TOPIC,0);
        TopicPartition topicPartition1 = new TopicPartition(TOPIC,2);
        kafkaConsumer.assign(Arrays.asList(topicPartition,topicPartition1));
        //,并且设置消费0分区的数据offerset值从0开始
        kafkaConsumer.seek(new TopicPartition(TOPIC,0),0);
        //消费2分区的数据offerset值从10开始
        kafkaConsumer.seek(new TopicPartition(TOPIC,2),10);
//        kafkaConsumer.subscribe(Arrays.asList(TOPIC));
    }

    private static Properties initConfig1(){
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,BROKER_LIST);
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,"earliest");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringDeserializer.class.getName());
        return properties;
    }
    /*
    生产者代码
     */
    @Test
    public void Producer(){
//        1、在kafka集群中创建18BD-50主题 副本为2个,分区为3个
        //bin/kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 2 --partitions 3 --topic 18BD-50
//                其他都是默认设置
//        模拟生产者,请写出代码向18BD-50主题中生产数据test0-test99
        //2、通过实例发送数据到kafka集群
        try {
            for (int i = 0; i <100; i++) {
                //当没有指定分区号和key时使用轮训(轮训分区)策略存储数据
                ProducerRecord producerRecord = new ProducerRecord(TOPIC,"test"+i);
                producer.send(producerRecord);
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            producer.close();
        }
    }
    @Test
    public void consumer(){
        // 模拟消费者,请写出代码把18BD-50主题中的0和2号分区的数据消费掉 ,打印输出到控制台
        try {
            while (true){
                //拉取数据,并输出
                //获取所有数据
                ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
                //获取每个分区
                Set<TopicPartition> partitions = consumerRecords.partitions();
                //遍历每个分区
                for (TopicPartition partition : partitions) {
                    //获取分区的数据的载体
                    List<ConsumerRecord<String, String>> records = consumerRecords.records(partition);
                    //获取每个数据
                    for (ConsumerRecord<String, String> record : records) {
                        System.out.println(record.value()+  "    "+record.partition());
                    }
                }
            }
        }catch (Exception e){
            e.printStackTrace();
        }finally {
            kafkaConsumer.close();
        }

    }
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值