主要步骤:
- 安装java环境
- 搭建zookeeper集群
- 搭建kafka集群
1. 准备工作
服务器主机准备
准备三台主机(节点),实体机虚拟机都可以
下面是我3台虚拟机的信息
安装java环境
- 注意:每台主机都要安装java环境
- 下载JDK:jdk-8u221-linux-x64.tar.gz
-
官网下载http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
-
百度网盘下载:链接:https://pan.baidu.com/s/1H3rGyQAlE7zJ1lTp1noF1A
提取码:iml3
- 将JDK上传至服务器
- 使用finalshell连接的服务器,我是放在/home/ysw/jdk 目录下的,自己根据需求修改存放位置
- 解压jdk-8u221-linux-x64.tar.gz
cd /ysw/jdk8
tar -zxvf jdk-8u221-linux-x64.tar.gz
- 配置环境变量
使用管理员权限打开profile才可对其修改保存
cd /etc
vi profile
- 在done 和 unset it中间添加环境变量如下,注意路径和名称,与自己的保持一致即可
/ysw/jdk8/jdk1.8.0_221 为jdk解压后存放的目录
# Java Environment Path
export JAVA_HOME=/ysw/jdk8/jdk1.8.0_221
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
- 修改保存退出(按:wq!)后使用以下命令使其profile立即生效,要不然只能重启电脑生效了。
source /etc/profile
- 测试是否安装成功
使用javac命令,不会出现command not found 错误
- 使用java -version,出现版本为java version “1.8.0_221”
2. 搭建zookeeper集群
- 安装
ZooKeeper一般都运行在Linux平台
步骤: - 官网下载:http://zookeeper.apache.org/
在每台主机上执行下面步骤:
解压文件
tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz
重命名文件夹为zookeeper
mv apache-zookeeper-3.5.7-bin zk1
进入zk1
cd zk1
创建存放消息的文件
mkdir data
进入conf文件夹修改zookeeper的配置文件
配置文件的名字必须为zoo.cfg
cd conf
cp -r zoo_sample.cfg zoo.cfg
配置文件的名字必须为zoo.cfg
vi zoo.cfg
#修改数据文件夹路径
dataDir=../data
#在文件末尾添加
server.1=10.139.12.149:2888:3888
server.2=10.139.12.15:2888:3888
server.3=10.139.12.150:2888:3888
#其它不变
三台机器上的zookeeper.properties文件配置相同,data.Dir 为zk的数据目录,server.1、server.2、server.3 为集群信息。
2888端口号是zookeeper服务之间通信的端口
3888端口是zookeeper与其他应用程序通信的端口。
进入data文件夹,创建myid文件,在myid文件中添加本机的 server ID,在本例中对应关系如下
主机 | zookeeper | IP地址 | myid |
---|---|---|---|
yswbdpt1 | server.1 | 10.139.12.149 | 1 |
yswbdpt2 | server.2 | 10.139.12.15 | 2 |
yswbdpt3 | server.3 | 10.139.12.150 | 3 |
将三台服务器上的myid文件分别写入1,2,3。myid是zookeeper集群用来发现彼此的标识,必须创建,且不能相同。
在3台zk主机分别执行如下命令
echo 主机编号 > myid
例如主机1
echo 1 > myid
打开 myid 可以可以看到写入的编号
以上步骤在每台主=主机上都要执行性一次,也可以将修改好的zk1文件夹复制到其他两台主机,只需要修改myid的变化,配置文件不需要修改
在每台电脑上启动zookeeper
进如zk的bin目录
启动zk命令
[root@yswbdpt1 bin]# cd b
查看启动状态
[root@yswbdpt1 bin]# ./zkServer.sh status
超看java进程
[root@yswbdpt1 bin]# jps
注意:要在全部启动后,再查看启动状态
全部启动后,在每台zk主机上查看每台zk主机启动结果
一个leader两个follower
zk1启动结果
zk2启动结果
zk3启动结果
至此zk集群搭建成功
Zookeeper启动失败
使用 bin/zkServer.sh start-foreground 来启动,start-foreground启动时打印启动日志
./zkServer.sh start-foreground
2.搭建kafka集群
在每台主机上执行下面步骤:
解压文件
tar -zxvf kafka_2.10-0.10.1.1.tgz
重命名文件夹为kafka1
mv kafka_2.10-0.10.1.1.tgz kafka1
进入kafka1/config 修改server.properties配置文件
修改配置如下(IP地址应该根据实际情况填写)
broker.id的值三个主机节点要配置不同的值,分别配置为1,2,3
log.dirs:发布消息的存放目录
zookeeper.connect:zookeeper集群的连接地址,多个以逗号隔开
broker.id=1
listeners=PLAINTEXT://10.139.12.149:9092
log.dirs=../data
zookeeper.connect=10.139.12.149:2181,10.139.12.15:2181,10.139.12.150:2181
主机1修改结果如下:
在与config的同级目录新建data文件夹用来存放消息数据
主机2修改结果如下
broker.id=2
listeners=PLAINTEXT://10.139.12.15:9092
log.dirs=../data
zookeeper.connect=10.139.12.149:2181,10.139.12.15:2181,10.139.12.150:2181
在与config的同级目录新建data文件夹用来存放消息数据
[root@yswbdpt2 kafka2]# mkdir data
主机3修改结果如下
broker.id=3
listeners=PLAINTEXT://10.139.12.150:9092
log.dirs=../data
zookeeper.connect=10.139.12.149:2181,10.139.12.15:2181,10.139.12.150:2181
在每台主机上分进入kafka的bin目录下启动kafka
主机1
bin/kafka-server-start.sh config/server.properties &
kill 23775
主机2
主机3
稍等一会就会开始启动
测试Kafka集群
创建topic
因为是集群,在集群的随便其中一台主机创建topic都可以
进入随边一台主机kafak的bin 目录来创建topic,我这里使用ip为( 10.139.12.149)的主机
长度bin
./kafka-topics.sh --create --zookeeper 10.139.12.149:2181,10.139.12.15:2181,10.139.12.150:2181 --replication-factor 3 --partitions 3 --topic test-topic
查看创建的topic信息
./kafka-topics.sh --describe --zookeeper 10.139.12.149:2181,10.139.12.15:2181,10.139.12.150:2181 --topic test-topic
列出已创建的topic列表
./kafka-topics.sh --list --zookeeper 10.139.12.149:2181
创建主题后就可以生产数据/消费数据了
模拟客户端去发送消息
进入一个主机的kafka bin目录中
./kafka-console-producer.sh --broker-list 10.139.12.149:9092,10.139.12.15:9092,10.139.12.150:9092 --topic test
进入另一个一个主机的kafka bin目录中
模拟客户端去接受消息
./kafka-console-consumer.sh --zookeeper 10.139.12.149:2181,10.139.12.15:2181,10.139.12.150:2181 --from-beginning --topic test
我们看可以看到虽然接受信息了,但是提示使用的命令是即将遗弃的命令,所以以后我们应该把命令中的zookeeoer 改成 bootstrap-server
bootstrap servers 如其名,只需要配个两三个就行了,会自动发现其他 broker,而至于 producer, 传进去的参数是 broker list, 是不会自动发现其它 brokers 的。
0.8 以前,消费进度是直接写到 zookeeper 的,consumer 必须知道 zookeeper 的地址。这个方案有性能问题,0.9 的时候整体大改了一次,brokers 接管了消费进度,consumer 不再需要和 zookeeper 通信了。所以新版本的生产和消费都不需要和zk通信了
./kafka-console-consumer.sh --bootstrap-server 10.139.12.149:9092,10.139.12.15:9092,10.139.12.150:9092 --topic test --from-beginning
参考链接:
Kafka集群搭建与配置