kafka集群搭建

1.安装scala

1、将scala-2.11.4.tgz拷贝到spark1的/usr/local目录下。
2、对scala-2.11.4.tgz进行解压缩:tar -zxvf scala-2.11.4.tgz。
3、对scala目录进行重命名:mv scala-2.11.4 scala
4、配置scala相关的环境变量

 vim /etc/profile
export PATH=$PATH:/usr/local/scala/bin
source /etc/profile

5、查看scala是否安装成功:scala -version
6、其他机器也是一样安装

2.安装Kafka包

1、将课程提供的kafka_2.9.2-0.8.1.tgz拷贝到 /usr/local目录下。
2、对kafka_2.9.2-0.8.1.tgz进行解压缩:tar -zxvf kafka_2.9.2-0.8.1.tgz。
3、对kafka目录进行改名:mv kafka_2.9.2-0.8.1 kafka
4、配置kafka

vi /usr/local/kafka/config/server.properties
broker.id:依次增长的整数,0、1、2、3、4,集群中Broker的唯一id
zookeeper.connect=192.168.25.102:2181,192.168.25.104:2181,192.168.25.104:2181

5、安装slf4j
将课程提供的slf4j-1.7.6.zip上传到/usr/local目录下
unzip slf4j-1.7.6.zip
把slf4j中的slf4j-nop-1.7.6.jar复制到kafka的libs目录下面

3.搭建kafka集群

1、在三台机器上分别执行以下命令:nohup bin/kafka-server-start.sh config/server.properties &

2、解决kafka Unrecognized VM option 'UseCompressedOops’问题
vi bin/kafka-run-class.sh
if [ -z “$KAFKA_JVM_PERFORMANCE_OPTS” ]; then
KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"
fi
去掉-XX:+UseCompressedOops即可

3、使用jps检查启动是否成功

4.使用基本命令检查kafka是否搭建成功
//创建一个topic (test)  
bin/kafka-topics.sh --zookeeper 192.168.25.102:2181,192.168.25.103:2181,192.168.25.104:2181 --topic test --replication-factor 1 --partitions 1 --create

//队列生产者
bin/kafka-console-producer.sh --broker-list 192.168.25.102:9092,192.168.25.103:9092,192.168.25.104:9092 --topic test

//监听队列,进行消费
bin/kafka-console-consumer.sh --zookeeper 192.168.25.102:2181,192.168.25.103:2181,192.168.25.104:2181 --topic test --from-beginning

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值