2024年运维最全Linux 安装 kafka

broker.id=0
port=9092 #端口号
host.name=localhost #服务器IP地址,修改为自己的服务器IP
log.dirs=/opt/software/kafka/log  #日志存放路径,上面创建的目录
zookeeper.connect=localhost:2181 #zookeeper地址和端口,单机配置部署,localhost:2181


5 配置zookeeper服务 zookeeper.properties
dataDir=/opt/software/kafka/zookeeper   #zookeeper数据目录
dataLogDir=/opt/software/kafka/zookeeper/log #zookeeper日志目录
clientPort=2181
maxClientCnxns=100
tickTimes=2000
initLimit=10
syncLimit=5

6 创建启动和关闭的 kafka 执行脚本
6.1 创建启动脚本
cd /opt/kafka_2.12-3.6.0/
vi kafkaStart.sh

配置启动脚本 kafkaStart.sh

#启动zookeeper
/opt/kafka_2.12-3.6.0/bin/zookeeper-server-start.sh /opt/kafka_2.12-3.6.0/config/zookeeper.properties &
 
sleep 3 #等3秒后执行
 
#启动kafka
/opt/kafka_2.12-3.6.0/bin/kafka-server-start.sh /opt/kafka_2.12-3.6.0/config/server.properties &

6.2 创建关闭脚本 kafkaStop.sh
cd /opt/kafka_2.12-3.6.0/
vi kafkaStop.sh

配置关闭脚本 kafkaStop.sh

#关闭zookeeper
/opt/kafka_2.12-3.6.0/bin/zookeeper-server-stop.sh /opt/kafka_2.12-3.6.0/config/zookeeper.properties &
 
sleep 3 #等3秒后执行
 
#关闭kafka
/opt/kafka_2.12-3.6.0/bin/kafka-server-stop.sh /opt/kafka_2.12-3.6.0/config/server.properties &

7 启动脚本,关闭脚本赋予权限
chmod 777 kafkaStart.sh
chmod 777 kafkaStop.sh

启动和关闭kafka

cd /opt/kafka_2.12-3.6.0/ 
sh kafkaStart.sh #启动
sh kafkaStop.sh  #关闭

8 创建生产者 topic 和 消费者 topic

cd /opt/kafka_2.12-3.6.0/bin/   #进入kafka目录
./kafka-console-producer.sh --broker-list localhost:9092 --topic test  #创建生产者 test你要建立的topic名

./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test #创建消费者

​ 查看 kafka 是否启动

[root@localhost kafka_2.12-3.6.0]# jps
21324 QuorumPeerMain 
15211 Jps
21215 Kafka

里面有QuorumPeerMain和kafkas说明启动成功了

查看当前的一些topic

cd /opt/kafka_2.12-3.6.0/bin/
 
./kafka-topics.sh --zookeeper localhost:2181 --list
./kafka-topics.sh --list --bootstrap-server localhost:9092

9 Spring boot集成Kafka

1、pom依赖

<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
</dependency>

<dependency>
   <groupId>org.apache.kafka</groupId>
   <artifactId>kafka-clients</artifactId>
   <version>2.4.1</version>
</dependency>


2.消费者

@Autowired
private KafkaTemplate<String, String> kafkaTemplate;
@RequestMapping("/userGets")
public Object gets() {
    // send 第一个参数为topic的名称,第二个参数为我们要发送的信息
    kafkaTemplate.send("topic.quick.default","1231235");
    return "发送成功";
}

@KafkaListener(topics = {"topic1"})
public void onMessage(ConsumerRecord<?, ?> record) {
    System.out.println(record.value());
}

@KafkaListener(topics = {"topic2"})
public void getMessage(ConsumerRecord<String, String> record) {
    String key = record.key();
    String value = record.value();
}



  1. 测试
 //生产者
 public static void main(String[] args) {
        Properties properties = new Properties();
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());

        KafkaProducer<String, String> producer = new KafkaProducer<>(properties);
        String topic = "test-topic";

        for (int i = 0; i < 10; i++) {
            String message = "Message " + i;
            producer.send(new ProducerRecord<>(topic, message));
            System.out.println("Sent: " + message);
        }

        producer.close();
    }

    //消费者
    public static void main(String[] args) {
        Properties properties = new Properties();
        properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        properties.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties);
        //消息者订阅主题
        consumer.subscribe(Collections.singletonList("test-topic"));
        //循环
        while (true) {
            //每次拉取 1千条消息
            ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000));
            for (ConsumerRecord<String, String> record : records) {
                System.out.println("=============> 消费kafka消息:"+ record.value());
            }
        }
    }

4.配置文件

server:
    port: 8080
spring:
    kafka:
        bootstrap-servers: 172.16.253.21: 9093
        producer: # 生产者
            retries: 3 # 设置大于 0 的值,则客户端会将发送失败的记录重新发送
            batch-size: 16384
            buffer-memory: 33554432
            acks: 1
            # 指定消息key和消息体的编解码方式
            key-serializer: org.apache.kafka.common.serialization.StringSerializer
            value-serializer: org.apache.kafka.common.serialization.StringSerializer
        consumer:
            group-id: default-group
            enable-auto-commit: false
            auto-offset-reset: earliest
            key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
            value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
            max-poll-records: 500
        listener:
        # 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
        # RECORD
        # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交
        # BATCH
        # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上次提交时间大于TIME时提交


**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化的资料的朋友,可以点击这里获取!](https://bbs.csdn.net/topics/618542503)**

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值