Spark项目实战-kafka集群安装

一 下载

官网下载对应版本的kafka,博主下载的是kafka_2.9.2-0.8.1.tgz。

二 安装

1、安装之前我们用WinSCP工具,将刚下载的tgz文件上传到Linux的/usr/local目录下。

2、解压tgz文件。

三 配置kafka

1、进入kafka/config目录,编辑server.properties。

2、配置参数。

# 依次增长的整数,0、1、2,集群中Broker的唯一id
broker.id:0
# zookeeper集群的ip:端口
zookeeper.connect=192.168.1.105:2181,192.168.1.106:2181,192.168.1.107:2181

四 安装slf4j

官网下载slf4j,解压把slf4j中的slf4j-nop-1.7.6.jar复制到kafka的libs目录下面。

紧接着我们使用scp命令将其安装在sparkproject2和sparkproject3机器上。 

五 启动kafka集群 

1、进入kafka安装目录,通过以下命令启动。

nohup bin/kafka-server-start.sh config/server.properties &

2、启动报错,提示不识别的vm option参数。 

3、直接把这个参数去掉。

(1)vi /usr/local/kafka/bin/kafka-run-class.sh

# 去掉-XX:+UseCompressedOops即可
if [ -z "$KAFKA_JVM_PERFORMANCE_OPTS" ]; then
  KAFKA_JVM_PERFORMANCE_OPTS="-server  -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"
fi

4、然后重新启动kafka。

5、使用jps检查启动是否成功。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值