记录自定义kafka的parcel库,CDH安装kafka服务,无法安装过去的排雷过程

1.版本
CDH5.9.1  安装KAFKA-2.0.2-1.2.0.2.p0.5-el6     https://archive.cloudera.com/kafka/parcels/2.0/       失败
CDH5.9.1  安装KAFKA-2.1.0-1.2.1.0.p0.115-el6  https://archive.cloudera.com/kafka/parcels/2.1.0/      失败
CDH5.10.0 安装KAFKA-2.1.1-1.2.1.1.p0.18-el6   https://archive.cloudera.com/kafka/parcels/latest/     失败

2.错误描述
自定义kafka的parcel库,安装kafka服务,无法安装过去。
bb
2.1 打开 stdout,stderr,Role Log 三个日志输出,
我们一般出现问题,只会看Role log的,这时抛错为"
Will not attempt to authenticate using SASL (unknown error) ",这时我们就分析kafka连接不上zk,
于是Google,百度等等,各种检查一大堆,最后没有解决问题。


2.2具体排查: 
  1. 防火墙,
  2. 端口号,
  3. /etc/hosts文件,
  4. zoo.cfg文件,
  5. 用户权限,
  6. kafka的zk jar包(客户端)和zookeeper的jar包版本,
  7. kafka broker进程的内存太小,直接oom

3.Role log:

Opening socket connection to server sht-sgmhadoopdn-03/172.16.101.60:2181. Will not attempt to authenticate using SASL (unknown error)
bb

4.stdout:
java.lang.OutOfMemoryError: Java heap space
bb

5.stderr:
+ grep -q OnOutOfMemoryError /proc/14495/cmdline
+ RET=0
+ '[' 0 -eq 0 ']'
+ TARGET=14495
++ date
+ echo Thu Mar 30 18:10:20 CST 2017
+ kill -9 14495
bb

6.经过n次的排查操作,无效。这时我才仔细去看stdout 和 stderr日志,发现这么一句话“OnOutOfMemoryError”,
刚开始我已经注意到这句话,但是没有仔细去想,所以耗时差不多1.5工作日。

7.我们需要删除kafka服务,重新安装,那么最好也要将kafka的log.dirs参数的值为"/var/local/kafka/data",这个目录,安装的机器上手工删除掉。

    
8.于是我们另外打开cdh的home界面,发现kafka已经安装上,就是启动失败,然后去kafka的配置界面搜索"memory"字样,修改为1G,保存。
bb 
 
 
9.启动kafka即可。
bb
 
10.思考
在第一次安装时,界面中没有配置这个参数的值。
为什么,为什么,为什么kafka的在安装时broker_max_heap_size这个参数设置的这么小?

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/30089851/viewspace-2136372/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/30089851/viewspace-2136372/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值