CentOS安装kafka教程,使用外部zookeeper

前置条件:

    1、已经装好jdk的机器

    2、已经存在了一套zookeeper

    3、已经下载好安装包(http://kafka.apache.org/downloads)

    4、会敲键盘

开始安装:

    在这边,我选择的是kafka_2.12的版本,下载好之后是一个tgz的压缩包,传到服务器后用tar命令解压

tar -zxvf kafka_2.12-1.0.0.tgz

接着把解压后的文件移动到/usr/local/目录下


进入目录里面。使用mkdir命令创建一个logs文件夹用于后续存放运行时的日志用:

mkdir logs

接着到config中。使用vi命令打开 server.properties,然后修改下列配置:

broker.id //当前节点的ID,直接用数值表示0123456即可,别重复就好
num.partitions //控制设定分区
zookeeper.connect   //zookeeper的集群地址


其他的就默认了。

接着把配置完成的目录用scp命令传送到其他的节点当中,有几个节点就复制几份。

scp -r /usr/local/kafka_2.12-1.0.0 Slave1:/home/hadoop/

复制完成之后,记得修改/config/server.properties文件当中的broker.id的值,根据顺序加上去。

最后在每个节点中的bin目录下。启动kafka:

sh ./kafka-server-start.sh /usr/local/kafka_2.12-1.0.0/config/server.properties > /usr/local/kafka_2.12-1.0.0/logs/logs &

启动完成之后。就可以使用命令测试了。

测试kafka:

首先使用命令创建一个名为test的topic:

./kafka-topics.sh -create -zookeeper Master:2181,Slave1:2181,Slave2:2181,Slave3:2181 --replication-factor 4 --partitions 4 --topic test

创建完成之后,使用命令查询一下topic:

./kafka-topics.sh -list -zookeeper Master:2181,Slave1:2181,Slave2:2181,Slave3:2181

接着,我们新建一个发布端:
./kafka-console-producer.sh --broker-list Master:2181,Slave1:2181,Slave2:2181,Slave3:2181 --topic test

接着在其他节点,新建消费端:

./kafka-console-consumer.sh --zookeeper Master:2181,Slave1:2181,Slave2:2181,Slave3:2181 --topic test --from-beginning

新建完成之后。在发布端里随便输入点东西试试:


消费端:




以上

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值