目录
步骤1:环境准备
-
虚拟机名称: hadoop01
-
IP地址: 192.168.80.151
-
操作系统: CentOS 7
-
远程连接工具: Xshell
-
文件传输工具: Xftp
步骤2: 准备Java环境
-
确保JDK环境已安装。
步骤3: 连接虚拟机
-
启动虚拟机。
-
使用Xshell连接到虚拟机。
-
使用Xftp将Zookeeper和Kafka压缩包复制到Linux的
/root
目录下。
步骤4: 解压Zookeeper和Kafka
-
在Xshell中,将Zookeeper和Kafka的压缩包解压到/usr/local/目录下。
tar -zxvf /root/kafka_2.12-3.7.0.tgz -C /usr/local tar -zxvf /root/zookeeper-3.4.10.tar.gz -C /usr/local
步骤5: 验证解压
-
查看
/usr/local/
目录,确认Zookeeper和Kafka是否解压完成。cd /usr/local/ ll
步骤6: 配置Zookeeper
-
将 zookeeper-3.4.10 中的 conf 中的 zoo_sample.cfg 文件名修改成 zoo.cfg
mv /usr/local/zookeeper-3.4.10/conf/zoo_sample.cfg /usr/local/zookeeper-3.4.10/conf/zoo.cfg
步骤7: 启动Zookeeper
-
进入Zookeeper的bin目录。
cd /usr/local/zookeeper-3.4.10/bin
-
启动Zookeeper服务。
./zkServer.sh start
-
查看Zookeeper状态。
./zkServer.sh status
步骤8: 查看Kafka配置文件
-
切换目录到 /usr/local/ 进入 kafka_2.12-3.7.0/ 进入 config/ ,查看配置文件server.properties
cd /usr/local/kafka_2.12-3.7.0/config vi server.properties
保存修改并退出vi : Esc -> : -> wq! -> Enter
修改
zookeeper.connect
属性为192.168.80.151:9092
。
步骤9: 启动Kafka
-
进入Kafka的bin目录。
cd /usr/local/kafka_2.12-3.7.0/bin
-
启动Kafka服务。
./kafka-server-start.sh ../config/server.properties
步骤10: 验证Kafka
-
使用
jps
命令检查Kafka是否成功启动。jps
步骤11: 设置环境变量(可以不做)
-
打开
/etc/profile
文件,添加Kafka和Zookeeper的bin目录到PATH环境变量。
vi /etc/profile
添加以下行:
export PATH=/usr/local/kafka_2.12-3.7.0/bin:/usr/local/zookeeper-3.4.10/bin:$PATH
保存并退出,然后运行(不运行不会生效)
source /etc/profile
使更改生效。
步骤11: 设置服务自启2
-
创建系统服务脚本,使Kafka和Zookeeper随系统启动自动运行。
步骤13: 验证安装
-
验证Kafka和Zookeeper是否正常工作,例如创建一个主题并发送消息。