1.安装scala
1、将scala-2.11.4.tgz拷贝到spark1的/usr/local目录下。
2、对scala-2.11.4.tgz进行解压缩:tar -zxvf scala-2.11.4.tgz。
3、对scala目录进行重命名:mv scala-2.11.4 scala
4、配置scala相关的环境变量
vim /etc/profile
export PATH=$PATH:/usr/local/scala/bin
source /etc/profile
5、查看scala是否安装成功:scala -version
6、其他机器也是一样安装
2.安装Kafka包
1、将课程提供的kafka_2.9.2-0.8.1.tgz拷贝到 /usr/local目录下。
2、对kafka_2.9.2-0.8.1.tgz进行解压缩:tar -zxvf kafka_2.9.2-0.8.1.tgz。
3、对kafka目录进行改名:mv kafka_2.9.2-0.8.1 kafka
4、配置kafka
vi /usr/local/kafka/config/server.properties
broker.id:依次增长的整数,0、1、2、3、4,集群中Broker的唯一id
zookeeper.connect=192.168.25.102:2181,192.168.25.104:2181,192.168.25.104:2181
5、安装slf4j
将课程提供的slf4j-1.7.6.zip上传到/usr/local目录下
unzip slf4j-1.7.6.zip
把slf4j中的slf4j-nop-1.7.6.jar复制到kafka的libs目录下面
3.搭建kafka集群
1、在三台机器上分别执行以下命令:nohup bin/kafka-server-start.sh config/server.properties &
2、解决kafka Unrecognized VM option 'UseCompressedOops’问题
vi bin/kafka-run-class.sh
if [ -z “$KAFKA_JVM_PERFORMANCE_OPTS” ]; then
KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"
fi
去掉-XX:+UseCompressedOops即可
3、使用jps检查启动是否成功
4.使用基本命令检查kafka是否搭建成功
//创建一个topic (test)
bin/kafka-topics.sh --zookeeper 192.168.25.102:2181,192.168.25.103:2181,192.168.25.104:2181 --topic test --replication-factor 1 --partitions 1 --create
//队列生产者
bin/kafka-console-producer.sh --broker-list 192.168.25.102:9092,192.168.25.103:9092,192.168.25.104:9092 --topic test
//监听队列,进行消费
bin/kafka-console-consumer.sh --zookeeper 192.168.25.102:2181,192.168.25.103:2181,192.168.25.104:2181 --topic test --from-beginning