大数据学习——Kafka环境搭建

8 篇文章 0 订阅
1 篇文章 0 订阅

搭建 Kafka 0.11.0.0 环境

我使用了4台虚拟机来搭建相对应的节点,具体情况如下:

masterslave1slave2slave3
NameNode
SecondaryNameNode
DataNode
ResourceManage
NodeManage
Flume
ZooKeeper
Kafka

软件版本:

  • Hadoop 2.7.2
  • Flume 1.7.0
  • ZooKeeper 3.4.12
  • Kafka 2.11-0.11.0.0

另注:我的所有软件都安装在 /usr/wang/ 目录下。

安装

1.解压

tar -zxvf kafka_2.11-0.11.0.0.tgz

2.建立软链

ln -s kafka_2.11-0.11.0.0 kafka

3.配置环境变量

sudo vim /etc/profile
# KAFKA ENVIROMENT
export KAFKA_HOME=/usr/wang/kafka
export PATH=$KAFKA_HOME/bin:$PATH
source /etc/profile

Kafka 配置

1.在 /usr/wang/kafka 下创建 logs 文件夹存放 日志信息

cd /usr/wang/kafka
mkdir logs

2.配置 server.properties 文件

cd /usr/wang/kafka/config
vim server.properties
#broker的全局唯一编号,不能重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#kafka运行日志存放的路径
log.dirs=/usr/wang/logs
#配置连接Zookeeper集群地址
zookeeper.connect=slave1:2181,slave2:2181,slave3:2181

集群操作

1.分发 Kafka 到其他节点

cd /usr/wang

rsync -rvl kafka spark@slave1:/usr/wang/
rsync -rvl kafka spark@slave2:/usr/wang/

2.编辑 server.properties 文件中的 broker.id

  • slave1 节点上

    broker.id=1
    
  • slave2 节点上

    broker.id=2
    

简单命令

1.启动命令

cd /usr/wang/kafka
bin/kafka-server-start.sh config/server.properties &

其中 & 表示 Kafka 运行在后台,若启动时没有加 &,可以 ctrl + z 然后输入 bg 即可转入后台。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值