# KafKa # KafKa搭建

KafKa搭建
1.上传压缩包


2.解压,配置环境变量(master、node1、node2)
#解压
tar -xvf kafka_2.11-1.0.0.tgz -C /usr/local/soft/

#配置环境变量

vim /etc/profile

#追加以下内容

#kafka

export KAFKA_HOME=/usr/local/soft/kafka_2.11-1.0.0

export PATH=$KAFKA_HOME/bin:$PATH

#分发到node1、node2中

scp /etc/ node1:/etc/

scp /etc/ node2:/etc/

#三台节点中刷新

 source /etc/profile 

3.修改配置文件
#修改config/server.properties

1、broker.id=0,每一个节点broker.id 要不一样

2、zookeeper.connect=master:2181,node1:2181,node2:2181

3、log.dirs=/usr/local/soft/kafka_2.11-1.0.0/data   消息存放的位置

# The id of the broker. This must be set to a unique integer for each broker.broker.id=0

#root directory for all kafka znodes.
zookeeper.connect=master: 2181,node1:2181, node2:2181

#A comma seperated list of directories under which to storelogfileslog.dirs=/usr/local/soft/kafka_2.11-1.0.0/ data

4.分发到其它节点
scp -r kafka_2.11-1.0.0 node2:`pwd`

scp -r kafka_2.11-1.0.0 node1:`pwd`

5.修改每个节点中的broker.id master=0、node1=1、node2=2
node1

#A comma seperated list of directories under which to storelogfileslog.dirs=/usr/local/soft/kafka_2.11-1.0.0/ data

node2

# The id of the broker. This must be set to a unique integer for each broker.broker.id=2

6.启动
#启动前需要启动zookeeper(所有节点中启动)

zkServer.sh start

#查看状态

zkServer.sh status

#在每台节点中启动broker

kafka-server-start.sh -daemon  /usr/local/soft/kafka_2.11-1.0.0/config/server.properties

 

 

了解更多大数据培训技术相关知识欢迎关注小编! 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值