安装kafka

1.下载kafka,地址如下:

https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.6.0/kafka_2.12-2.6.0.tgz 

2. 上传kafka

3.解压kafka到/usr/local目录,使用以下命令:

sudo tar -xvf kafka_2.12-2.6.0.tgz -C /usr/local/

4.重命名解压后的目录为kafka,使用以下命令:

sudo mv /usr/local/kafka_2.12-2.6.0/ /usr/local/kafka

5.修改kafka目录的创建者为hadoop,使用以下命令:

sudo chown -R hadoop /usr/local/kafka/

6.修改kafka的配置文件,执行以下操作:

a) 编辑config/server.properties文件,使用以下命令:

vim /usr/local/kafka/config/server.properties

b) 修改第21行为以下内容:

broker.id=1

c) 修改第123行为以下内容:

zookeeper.connect=master:2181,slave1:2181,slave2:2181

7.修改环境变量,执行以下操作:

a) 编辑环境变量,使用以下命令:

vim /home/hadoop/.bashrc

b) 在文件最后追加以下内容:

export KAFKA_HOME=/usr/local/kafka
export PATH=${KAFKA_HOME}/bin:$PATH

c) 刷新环境变量,使用以下命令:

source /home/hadoop/.bashrc

8.发送kafka给slave1执行以下操作:

a) 在slave1创建/usr/local/kafka目录,使用以下命令:

sudo mkdir /usr/local/kafka

b) 修改kafka目录的创建者为hadoop,使用以下命令:

sudo chown -R hadoop /usr/local/kafka/

c) 在master发送kafka目录给slave1,使用以下命令:

scp -r /usr/local/kafka/* hadoop@slave1:/usr/local/kafka/

d) 在slave1修改/usr/local/kafka/config/server.properties文件中的broker.id=2

e) 在master发送环境变量给slave1,使用以下命令:

scp /home/hadoop/.bashrc  hadoop@slave2:/home/hadoop/

f) 在slave1刷新环境变量,使用以下命令:

source /home/hadoop/.bashrc

9.参考第8步,发送kafka给slave2,并修改/usr/local/kafka/config/server.properties文件中的broker.id=3

kafka的使用步骤如下:

1.启动3个节点上的Zookeeper,在3个节点分别执行以下命令:

zkServer.sh start

2.启动3个节点上的kafka,在3个节点分别执行以下命令:

kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties &

3.通过jps命令,查看kafka的进程,如下图所示:

在这里插入图片描述

4.创建一个名字为spark,分区数为3,备份数为3的主题,在任意节点执行以下命令:

kafka-topics.sh --create --zookeeper master:2181,slave1:2181,slave2:2181 --replication-factor 3 --partitions 3 --topic spark

5.查看kafka目前已有的主题,使用以下命令:

kafka-topics.sh --list --zookeeper master:2181,slave1:2181,slave2:2181

6.启动kafka的控制台生产者,向spark主题写入数据,在任意节点执行以下命令:

kafka-console-producer.sh --broker-list master:9092,slave1:9092,slave2:9092 --topic spark

7.启动kafka的控制台消费者,从spark主题读取数据,在任意节点执行以下命令:

kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092 --topic spark --from-beginning

8.通过生产者向kafka的spark主题写入一些消息,并查看是否能消费到数据

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值