1. 主节点安装
1.1 解压安装包
tar -zxvf /opt/software/kafka_2.11-0.11.0.0.tgz -C /opt/module/
1.2 修改名字
mv kafka_2.11-0.11.0.0/ kafka
1.3 创建 logs 文件夹
mkdir logs
1.4 配置环境变量
vim /etc/profile.d/my_env.sh
-------------------------------
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin
---------------
source /etc/profile
使环境变量生效
1.5 修改配置文件
修改config文件夹下的server.properties文件
添加以下内容
#broker 的全局唯一编号,不能重复
broker.id=0
#删除 topic 功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘 IO 的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka 运行日志存放的路径
log.dirs=/opt/module/kafka/logs
#topic 在当前 broker 上的分区个数
num.partitions=1
#用来恢复和清理 data 下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment 文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接 Zookeeper 集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181
1.6 分发到另外两台机器
xsync /opt/module/kafka/
2. 从节点安装
2.1 配置环境变量
vim /etc/profile.d/my_env.sh
-------------------------------
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin
---------------
source /etc/profile
使环境变量生效
2.2 修改配置文件
vim server.properties
修改broker.id
hadoop103:broker.id=1
hadoop104:broker.id=2
3. 集群群起脚本
cd /root/bin/ //我的脚本是放在这里
vim kafka.sh
chmod 777 kafka.sh //给予权限
xsync /root/bin/ //分发给其他两台
#! /bin/bash
case $1 in
"start"){
for i in hadoop102 hadoop103 hadoop104
do
echo "------启动 $ i kafka ----------"
ssh $i " /opt/module/kafka/bin/kafka-server-start.sh -daemon /opt/module/kafka/config/server.properties"
done
};;
"stop"){
for i in hadoop102 hadoop103 hadoop104
do
echo "------停止 $ i kafka ----------"
ssh $i " /opt/module/kafka/bin/kafka-server-stop.sh"
done
};;
esac
4. 开启/关闭集群
4.1 kafka启动命令
依次在 hadoop102、hadoop103、hadoop104 节点上启动 kafka
bin/kafka-server-start.sh -daemon config/server.properties
4.2 脚本开启关闭集群
kafka.sh start
kafka.sh stop