Java环境配置这里不再做介绍,太过简单。
一:Zookeeper安装
Zookeeper是针对分布式应用的高性能协调服务,是高效可靠的协同工作系统,他提供的功能包括配置维护、名字服务、分布式同步、组服务等。Storm使用zookeeper存储各个节点的状态信息。
1.下载
Wget http://www-us.apache.org/dist/zookeeper/stable/zookeeper-3.4.10.tar.gz
2.部署
将上一步下载的文件解压缩,我这里存放的目录为 /home/david/Zookeeper/zookeeper-3.4.10
。修改/etc/profile文件在最后添加
export ZOOKEEPER_HOME=/home/david/Zookeeper/zookeeper-3.4.10
export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MAVEN_HOME/bin:$STORM_HOME/bin:$KAFKA_HOME/bin:$PATH
运行source命令使环境立即生效,source /etc/profile
在命令行输入zkServer.sh测试环境是否安装成功。
3.配置
进入zookeeper下面的conf目录,如果.cfg文件名不是zoo.cfg,则改成这个名。修改zoo.cfg文件。
tickTime=2000
dataDir=自己设置个目录
ClientPort=2181
initLimit=5
syncLimit=2
4.运行
启动:zkServer.sh start
停止:zkServer.sh stop
查看状态:zkServer.sh status
二:Storm安装
1.下载并解压
Wget http://www-eu.apache.org/dist/storm/apache-storm-1.1.0/apache-storm-1.1.0.tar.gz
我的解压目录为/home/david/Storm/apache-storm-1.1.0
2.部署
在/etc/profile最后添加
export STORM_HOME=/home/david/Storm/apache-storm-1.1.0
export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MAVEN_HOME/bin:$STORM_HOME/bin:$KAFKA_HOME/bin:$PATH
运行source命令使立即生效。
3.配置
进入conf目录,修改storm.yaml文件
storm.zookeeper.servers:
- "127.0.0.1"
# - "server2"
#
# nimbus.seeds: ["host1", "host2", "host3"]
nimbus.host: "127.0.0.1"
storm.zookeeper.port: 2181
storm.local.dir: "/home/david/Storm/apache-storm-1.1.0"
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
4.运行
Storm numbus &
Storm supervisor &
Storm ui &
三:kafka安装
1.下载并解压
Wget http://www-us.apache.org/dist/kafka/0.11.0.0/kafka_2.11-0.11.0.0.tgz
我的解压目录为:
/home/david/Kafka/kafka_2.12-0.11.0.0
2.部署
修改/etc/profile文件
export KAFKA_HOME=/home/david/Kafka/kafka_2.12-0.11.0.0
export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MAVEN_HOME/bin:$STORM_HOME/bin:$KAFKA_HOME/bin:$PATH
3.运行
a.启动服务:Kafka用到了Zookeeper,所有首先启动Zookper,下面简单的启用一个单实例的Zookkeeper服务。可以在命令的结尾加个&符号,这样就可以启动后离开控制台。
zookeeper-server-start.sh config/zookeeper.properties &
现在启动Kafka:
kafka-server-start.sh config/server.properties &
b.创建topic
创建一个叫做“test”的topic,它只有一个分区,一个副本:
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
可以通过list命令查看创建的topic:
kafka-topics.sh --list --zookeeper localhost:2181
删除一个topic
bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic test
c.发送消息
Kafka 使用一个简单的命令行producer,从文件中或者从标准输入中读取消息并发送到服务端。默认的每条命令将发送一条消息。运行producer并在控制台中输一些消息,这些消息将被发送到服务端:
kafka-console-producer.sh --broker-list localhost:9092 --topic test
输入消息....
d.启动consumer
Kafka也有一个命令行consumer可以读取消息并输出到标准输出:
kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
显示输入的消息...
e.搭建一个多个broker的集群
刚才只是启动了单个broker,现在启动有3个broker组成的集群,这些broker节点也都是在本机上的:
首先为每个节点编写配置文件:
david@david-pc:~/Kafka/kafka_2.12-0.11.0.0$ cp config/server.properties config/server-1.properties
david@david-pc:~/Kafka/kafka_2.12-0.11.0.0$ cp config/server.properties config/server-2.properties
在拷贝出的新文件中添加以下参数:
config/server-1.properties:
broker.id=1
port=9093
log.dir=/tmp/kafka-logs-1
config/server-2.properties:
broker.id=2
port=9094
log.dir=/tmp/kafka-logs-2
broker.id在集群中唯一的标注一个节点,因为在同一个机器上,所以必须制定不同的端口和日志文件,避免数据被覆盖。
启动刚刚添加的两个节点:
kafka-server-start.sh config/server-1.properties &
kafka-server-start.sh config/server-2.properties &
创建一个拥有3个副本的topic:
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
查看每个节点的信息:
kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
显示:Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs:
Topic: my-replicated-topic Partition: 0 Leader: 1 Replicas: 1,0,2 Isr: 0,1,2
下面解释一下这些输出。第一行是对所有分区的一个描述,然后每个分区都会对应一行,因为我们只有一个分区所以下面就只加了一行。
leader:负责处理消息的读和写,leader是从所有节点中随机选择的.
replicas:列出了所有的副本节点,不管节点是否在服务中.
isr:是正在服务中的节点.
这个时候我们可以向topic发消息:
kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic
消费消息:
kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
就算其中一个broker掉了,消息也可以被其他broker消费。如果leader掉了,另外一个节点会被选为leader。