windows环境kafka搭建,并用java代码实现简单生产和消费

预览

1.下载安装zookeeper
2.用7-zip解压zookeeper的tar.gz文件
3.下载解压kafka
4.命令行生产消费
5.java代码实现生产消费

1.下载安装zookeeper

https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.14/
(我下载的3.5.5有问题,下的3.4.14没问题)


2.用7-zip解压zookeeper的tar.gz文件

https://www.7-zip.org/download.html
在这里插入图片描述
安装完后点击如下:
在这里插入图片描述

选择zookeeper-3.4.14.tar.gz直到如图,然后解压文件到自定义路径:
在这里插入图片描述
解压后
在这里插入图片描述

2.1修改配置文件

打开config文件,复制zoo_simple.cfg到同级目录,改名为zoo.cfg
,打开zoo.cfg配置如下:
dataDir=H:\work\tools\zookeeprer_and_kafaka\zookeeper_dataDir
dataLogDir=H:\work\tools\zookeeprer_and_kafaka\zookeerer_dataDir

2.2配置zookeeper环境变量

`
ZOOKEEPER_HOME H:\work\tools\zookeeprer_and_kafaka\zookeeper-3.4.14
path 在最后加入;%ZOOKEEPER_HOME%\bin;
cmd打开命令行
输入zkServer启动后如图,保持窗口

在这里插入图片描述


3.下载解压kafka

http://kafka.apache.org/downloads
要选择Binary downloads下边的,不要选择上面的Source download
在这里插入图片描述
可以直接解压,解压后如图:
在这里插入图片描述
打开config下的server.properties修改log.dirs为:
log.dirs=H:\work\tools\zookeeprer_and_kafaka\kafka_log.dirs


4.命令行生产消费

4.1 启动kafka

在kafka_2.12-2.3.0目录下
空白处"shift + 鼠标右键"打开cmd窗口执行
.\bin\windows\kafka-server-start.bat .\config\server.properties
我的又出现,命令行输入错误,短时间没找到解决方法;所以我把server.properties文件拷贝到bin\windows\下
kafka-server-start.bat server.properties
在这里插入图片描述
因为我操作过所以图可能不一样;

4.2创建topic

在kafka_2.12-2.3.0目录下
空白处"shift + 鼠标右键"打开cmd窗口执行
kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

4.3创建一个producer

在kafka_2.12-2.3.0目录下
空白处"shift + 鼠标右键"打开cmd窗口执行
kafka-console-producer.bat --broker-list localhost:9092 --topic test

4.4创建一个consumer

在kafka_2.12-2.3.0目录下
空白处"shift + 鼠标右键"打开cmd窗口执行
kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test
2.12x之前的kafka版本如下命令
kafka-console-consumer.bat --zookeeper localhost:2181 --topic test

4.5 在producer中发送消息,consumer显示

在这里插入图片描述


5.java代码实现生产消费

5.1建立一个java_web项目;
5.2把kafka\libs下的jar全部拷贝到web项目的lib下

在这里插入图片描述
拷贝后
在这里插入图片描述

5.3代码创建生产者
public class ProducerDemo {
 
    private final KafkaProducer<String, String> producer;
 
    public final static String TOPIC = "test5";
 
    private ProducerDemo() {
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");//xxx服务器ip
        props.put("acks", "all");//所有follower都响应了才认为消息提交成功,即"committed"
        props.put("retries", 0);//retries = MAX 无限重试,直到你意识到出现了问题:)
        props.put("batch.size", 16384);//producer将试图批处理消息记录,以减少请求次数.默认的批量处理消息字节数
        //batch.size当批量的数据大小达到设定值后,就会立即发送,不顾下面的linger.ms
        props.put("linger.ms", 1);//延迟1ms发送,这项设置将通过增加小的延迟来完成--即,不是立即发送一条记录,producer将会等待给定的延迟时间以允许其他消息记录发送,这些消息记录可以批量处理
        props.put("buffer.memory", 33554432);//producer可以用来缓存数据的内存大小。
        props.put("key.serializer",
                "org.apache.kafka.common.serialization.IntegerSerializer");
        props.put("value.serializer",
              "org.apache.kafka.common.serialization.StringSerializer");
 
        producer = new KafkaProducer<String, String>(props);
    }
 
    public void produce() {
        int messageNo = 1;
        final int COUNT = 5;
 
        while(messageNo < COUNT) {
            String key = String.valueOf(messageNo);
            String data = String.format("hello KafkaProducer message %s from hubo 06291018 ", key);
            
            try {
                producer.send(new ProducerRecord<String, String>(TOPIC, data));
            } catch (Exception e) {
                e.printStackTrace();
            }
 
            messageNo++;
        }
        
        producer.close();
    }
 
    public static void main(String[] args) {
        new ProducerDemo().produce();
    }
}
5.4代码创建消费者
public class UserKafkaConsumer extends Thread {
 
        public static void main(String[] args){
            Properties properties = new Properties();
            properties.put("bootstrap.servers", "localhost:9092");//xxx是服务器集群的ip
            properties.put("group.id", "jd-group");
            properties.put("enable.auto.commit", "true");
            properties.put("auto.commit.interval.ms", "1000");
            properties.put("auto.offset.reset", "latest");
            properties.put("session.timeout.ms", "30000");
            properties.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
 
            KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(properties);
            kafkaConsumer.subscribe(Arrays.asList("test5"));
            while (true) {
                ConsumerRecords<String, String> records = kafkaConsumer.poll(100);
                for (ConsumerRecord<String, String> record : records) {
                    System.out.println("-----------------");
                    System.out.printf("offset = %d, value = %s", record.offset(), record.value());
                    System.out.println();
                }
            }
 
        }
}

web项目截图
在这里插入图片描述
消费者执行main函数打印如图
在这里插入图片描述

值得注意的是命令行中的生产消费和代码中的是互通的

本博客内容80%来自下面两位博客,多谢前辈栽树,留我后人乘凉,比心!!!

https://blog.csdn.net/wobuaizhi/article/details/80950337
https://blog.csdn.net/u010054969/article/details/70241478
没侵权吧,我也喜欢开源啊,别跟我要侵权费,真没钱:)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是使用Java语言实现kafka简单生产消费模型的步骤: 1. 首先,需要引入kafkaJava客户端依赖,可以在Maven或Gradle添加以下依赖: ``` <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>{kafka版本号}</version> </dependency> ``` 2. 编写生产代码,创建KafkaProducer对象,设置producer配置,然后通过调用send()方法向指定的Topic发送消息,示例代码如下: ``` Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); KafkaProducer<String, String> producer = new KafkaProducer<>(props); ProducerRecord<String, String> record = new ProducerRecord<>("test_topic", "key", "value"); producer.send(record); producer.close(); ``` 3. 编写消费代码,创建KafkaConsumer对象,设置consumer配置和消费者订阅的Topic,然后通过轮询poll()方法获取Topic的消息,示例代码如下: ``` Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); props.put("group.id", "test_group"); KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); consumer.subscribe(Collections.singletonList("test_topic")); while (true) { ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100)); for (ConsumerRecord<String, String> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } } ``` 以上就是使用Java语言实现kafka简单生产消费模型的步骤,你可以根据自己的需求进行修改和扩展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值