2. kafka消息队列

一、kafka消息队列

消息服务, 简称MQ
用于在分布式业务环境,实现不同组件、不同的功能模块的高效通信

代表性的MQ软件:
kafka, 十万并发
RocketMQ 百万并发
rabbitMQ
zeroMQ

二、消息服务的术语

在这里插入图片描述

  • producer 生产者
    产生消息的进程

  • consumer 消费者
    接收、处理消息的进程

  • broker 消息服务器

  • topics 主题
    消息的分组,根据业务不同的模块建不同的主题

  • partation 分区
    确保某一个主题的消息的有序性

三、kafka消息确认机制 ACK

producer发送消息后,leader将消息同步给follower,然后返回ack给producer,表示消息已收到,此时才可以继续发送下一条消息。

kafka提供了以下3种ack级别:
0:leader接收到消息马上返回ack,此时可能还没有写入磁盘,可能丢失数据
1:leader将消息写入磁盘后,马上返回ack,此时可能还没同步follower,同样可能丢失数据
-1(all):leader和follower都将数据写入磁盘后,返回ack。但是如果在写入磁盘后,ack尚未发送,此时leader发生故障,会导致数据写入重复

四、kafka安装部署

1、环境规划

192.168.140.10 kafka
192.168.140.11 kafka
192.168.140.12 kafka

2、使用事先部署好的zookeeper管理kafka的高可用

3、安装jdk

4、安装kafka

[root@node01 ~]# tar xf kafka_2.12-3.3.1.tgz -C /usr/local/
[root@node01 ~]# mv /usr/local/kafka_2.12-3.3.1/ /usr/local/kafka33

[root@node01 ~]# vim /etc/profile
export KAFKA_HOME=/usr/local/kafka33
export PATH=$PATH:$JAVA_HOME/bin:$KAFKA_HOME/bin

[root@node01 ~]# source /etc/profile

5、配置kafka

[root@node01 ~]# mkdir /usr/local/kafka33/log
[root@node01 ~]# vim /usr/local/kafka33/config/server.properties

broker.id=0

listeners=PLAINTEXT://192.168.140.10:9092
log.dirs=/usr/local/kafka33/log

num.network.threads=8
num.io.threads=16

zookeeper.connect=192.168.140.10:2181,192.168.140.11:2181,192.168.140.12:2181

另外两台消息服务器配置参考上述,注意修改broker id、监听IP

6、启动kafka

[root@node01 bin]# ./kafka-server-start.sh -daemon /usr/local/kafka33/config/server.properties 
[root@node01 bin]# 
[root@node01 bin]# netstat -tunlp | grep 9092
tcp6       0      0 192.168.140.10:9092     :::*                    LISTEN      12309/java          
[root@node01 bin]# 
[root@node01 bin]# 

在zookeeper中查看kafka注册的数据

[root@node01 bin]#  /usr/local/zookeeper/bin/zkCli.sh

[zk: localhost:2181(CONNECTED) 0] ls /brokers 
[ids, seqid, topics]
[zk: localhost:2181(CONNECTED) 1] ls /brokers/ids 
[0, 1, 2]
[zk: localhost:2181(CONNECTED) 2] ls /brokers/ids/0
[]
[zk: localhost:2181(CONNECTED) 3] 
[zk: localhost:2181(CONNECTED) 3] get /brokers/ids/0
{"listener_security_protocol_map":{"PLAINTEXT":"PLAINTEXT"},"endpoints":["PLAINTEXT://192.168.140.10:9092"],"jmx_port":-1,"features":{},"host":"192.168.140.10","timestamp":"1718782930115","port":9092,"version":5}

7、测试生产者、消费者模型

7.1 创建主题

[root@node01 ~]# kafka-topics.sh --create --topic test --replication-factor 1 --partitions 1 --bootstrap-server 192.168.140.10:9092
Created topic test.
[root@node01 ~]# 
[root@node01 ~]# kafka-topics.sh --list --bootstrap-server 192.168.140.10:9092
test
[root@node01 ~]# 

7.2 测试生产者产生数据

[root@node01 ~]# kafka-console-producer.sh --broker-list 192.168.140.10:9092 --topic test
>nginx
>httpd
>php
>mysql
>redis

7.3 测试消费者接收数据

[root@node01 ~]# kafka-console-consumer.sh --bootstrap-server 192.168.140.10:9092 --topic test --from-beginning
nginx
httpd
php
mysql
redis

  • 16
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值