java客户端连接kafka简单测试

java客户端连接kafka简单测试

本案例kafka版本是kafka_2.11-0.9.0.1,用java来实现kafka生产者、消费者的示例
在测试的过程中遇到的特别的问题以及解决办法,其他小问题就不一一列举了。

1 . 使用kafka-clients进行测试,maven依赖

<dependency>
         <groupId>org.apache.kafka</groupId>
         <artifactId>kafka-clients</artifactId>
         <version>0.9.0.1</version>
    </dependency>

需要注意:kafka-clients的版本必须和kafka安装的版本一致
2 . Consumer测试类收不到消息的原因:

①. 先开启consumer测试类,等待poll数据。
②. 开启producer测试类,发送数据,并确保发送成功。
③. 正常情况下这样就可以收到数据了。


生产者示例
public class ProducerTest {
    private void execMsgSend() throws  Exception{
        Properties props = new Properties();
        props.put("bootstrap.servers", "阿里云外网Ip:9092");
        props.put("acks", "1");
        props.put("retries", 0);
        props.put("batch.size", 16384);
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        Producer<String, String> procuder = new KafkaProducer<String, String>(props);

        String topic = "test";
        for (int i = 1; i <= 10; i++) {
            String value = " this is another message_" + i;
            ProducerRecord<String,String> record = new ProducerRecord<String, String>(topic,i+"",value);
            procuder.send(record,new Callback() {
                @Override
                public void onCompletion(RecordMetadata metadata, Exception exception) {
                    System.out.println("message send to partition " + metadata.partition() + ", offset: " + metadata.offset());
                }
            });
            System.out.println(i+" ----   success");
            Thread.sleep(1000);
        }
        System.out.println("send message over.");
        procuder.close();
    }
    public static void main(String[] args) throws  Exception{
        ProducerTest test1 = new ProducerTest();
        test1.execMsgSend();
    }
}

消费者示例
public class Consumer {
    public static void main(String[] s){  
        Properties props = new Properties();
        props.put("bootstrap.servers", "阿里云外网Ip:9092");   
        props.put("group.id", "1");
        props.put("enable.auto.commit", "true");
        props.put("auto.commit.interval.ms", "1000");
        props.put("session.timeout.ms", "30000");
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
        consumer.subscribe(Arrays.asList("test"));
        while (true) {
            System.out.println("poll start...");
            ConsumerRecords<String, String> records = consumer.poll(100);
            int count = records.count();
            System.out.println("the numbers of topic:" + count);
            for (ConsumerRecord<String, String> record : records)
                System.out.printf("offset = %d, key = %s, value = %s", record.offset(), record.key(), record.value());
        }
   }  
}
在Linux上启动Kafka消费者客户端进行测试通常涉及以下几个步骤: 1. **安装依赖**:首先需要在系统上安装Java Development Kit (JDK) 和 Kafka客户端库。你可以通过包管理器(如apt-get、yum或Homebrew)进行安装。 2. **配置环境变量**:设置`JAVA_HOME`指向你的Java安装路径,并确保`PATH`包含对应bin目录,以便运行Java命令。 3. **获取Kafka Consumer API**:如果还没有的话,从Apache Kafka项目官网下载并解压最新的版本,然后将` confluent-kafka-java` 或 `kafka-clients` JAR包添加到项目的构建路径。 4. **创建配置文件**:编写一个Kafka消费者配置文件,例如`consumer.properties`,包括主题名称(`bootstrap.servers`)、组名(`group.id`)、偏移量策略(`auto.offset.reset`)等属性。 5. **编写消费者示例程序**:使用Java语言,利用Kafka的Consumer API,编写一个消费者类。这个类通常会有一个主函数,从配置读取数据,连接Kafka服务器,订阅主题,然后处理消息。 ```java import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import kafka.javaapi.consumer.ConsumerConnector; public class SimpleConsumer { public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("group.id", "test-consumer-group"); props.put("enable.auto.commit", "true"); props.put("auto.commit.interval.ms", "1000"); // 创建连接 ConsumerConnector consumer = kafka.consumer.Consumer.createJavaConsumerConnector(props); // 定义消费队列 TopicPartition topicPartition = new TopicPartition("my-topic", 0); List<ConsumerRecord<byte[], byte[]>> records = consumer.poll(100); // 拿到最新消息 // 处理消息 for (ConsumerRecord<byte[], byte[]> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), new String(record.key()), new String(record.value())); } // 关闭连接 consumer.shutdown(); } } ``` 6. **运行程序**:编译并运行你的Java程序,如果一切正常,你应该能看到打印出的消息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值