Kafka集群部署

一. Kafka下载与解压
  1. Kafka包下载:kafka_2.10-0.10.2.1.tgz
  2. 上传解压:tar zxvf kafka_2.10-0.10.2.1.tgz
二. Kafka目录
  1. /bin是操作kafka的可执行脚本(包含windows版脚本)
  2. /config是kafka相关的配置文件
  3. /libs是依赖库
  4. /logs是日志数据目录。
三. Zookeeper配置
  1. 解压:tar zxvf zookeeper-3.4.10.tar.gz
  2. 修改Zookeeper配置

(1)zoo_sample.cfd复制一份并重命名为zoo.cfg,并修改以下参数。之后将修改后的zookeeper包分发的slave2和slave3节点上。

tickTime=2000:是Zookeeper服务器之间或服务器与客户端之间维持心跳的时间间隔,即每个tickTime时间就会发送一个心跳。
initLimit=10:初始化连接时最长能忍受多少个心跳时间间隔数
syncLimit=5:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总
的时间长度就是 2*tickTime=4dataDir=/usr/local/zookeeper/data/zkdata:Zookeeper保存数据的目录。默认情况下Zookeeper也会将写数据的日志文件写入该目录。
dataLogDir=/usr/local/zookeeper/data/log:日志目录,路径默认与dataDir一致,可设置。
clientPort=2181: 客户端与Zookeeper服务器连接的默认端口,Zookeeper会监听这个端口,接收客户端的请求。
#添加Zookeeper服务节点
server.1=slave1:2888:3888
server.2=slave2:2888:3888
server.3=slave3:2888:3888 

(2)创建各节点服务编号

# slave1 节点
[root@slave1 zkdata]# touch /usr/local/zookeeper/data/zkdata/myid
[root@slave1 zkdata]# echo 1 > myid

# slave2 节点
[root@slave2 zkdata]# touch /usr/local/zookeeper/data/zkdata/myid
[root@slave2 zkdata]# echo 2 > myid

# slave3 节点
[root@slave3 zkdata]# touch /usr/local/zookeeper/data/zkdata/myid
[root@slave3 zkdata]# echo 3 > myid

(3)Zookeeper集群启动

# 在三个节点上分别执行
启动: ./zkServer.sh start
停止: ./zkServer.sh stop
四. Kafka配置

1、修改配置文件:/config/server.properties,之后将该配置文件覆盖同步到其他两个节点上。注意需要修改下broker.id值,slave1节点上broker.id设置为1,slave2节点上设置为2,slave3节点上设置为3。其他配置项不变。

broker.id=1   #kafka每个节点该值需要不同
host.name=ip地址
port=9092
delete.topic.enable=true
num.network.threads=3
num.io.threads=8
log.dirs=/opt/kafka_2.10-0.10.2.1/kafka-logs
num.partitions=3
log.flush.interval.messages=1000
log.flush.interval.ms=3000
log.retention.hours=24
zookeeper.connect=ip1:2181,ip2:2181,ip37:2181  #填写三个节点具体IP地址
zookeeper.connection.timeout.ms=6000

2、Kafka启动

启动:./kafka-server-start.sh /opt/kafka_2.10-0.10.2.1/config/server.properties &
停止:./kafka-server-stop.sh
五. Kafka单机部署

kafka单机部署修改zk和kafka配置文件与集群slave1上的配置文件修改相同。

zookeeper启动: ./zookeeper-server-start.sh /opt/kafka_2.10-0.10.2.1/config/zookeeper.properties &
kafka启动: ./kafka-server-start.sh /opt/kafka_2.10-0.10.2.1/config/server.properties &
六. Kafka常用命令
(1) 创建Topic: ./kafka-topics.sh --create --zookeeper ip:2181 --replication-factor 1 --partitions 1 --topic test
(2) Producer发送消息: ./kafka-console-producer.sh --broker-list ip1:9092,ip2:9092,ip3:9092 --topic test (集群模式)
(3) Consumer接收消息: ./kafka-console-consumer.sh --zookeeper ip1:2181,ip2:2181,ip3:2181 --topic test --from-beginning (集群模式)
(4) 查看所有的主题: ./kafka-topics.sh --list --zookeeper ip:2181
(5) 查看topic的详细信息: ./kafka-topics.sh -zookeeper ip:2181 -describe -topic test
(6) 为topic增加partition: ./kafka-topics.sh –zookeeper ip:2181 –alter –partitions 20 –topic testKJ1
(7) 删除topic: ./kafka-topics.sh --zookeeper ip:2181 --delete --topic test
(8) 查看消费组消费情况:kafka-consumer-groups --bootstrap-server ip:9092 --describe --group my-consumer-group(即groupid)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值