1、安装配置 jdk、python、zookeeper
2、下载storm http://storm.apache.org/releases/1.1.0/Setting-up-a-Storm-cluster.html
3、解压到服务器
4、配置storm.yaml ($STORM_PATH/conf/storm.yaml)
Storm 的安装包中包含一个在 conf 目录下的 storm.yaml
文件,该文件是用于配置 Storm 集群的各种属性的。你可以在这里查看各个配置项的默认值。storm.yaml 会覆盖 defaults.yaml 中各个配置项的默认值。以下是几个在安装集群时必须配置的选项:
1) storm.zookeeper.servers:这是 Storm 关联的 ZooKeeper 集群的地址列表,此项的配置是如下所示:
storm.zookeeper.servers:
- "111.222.333.444"
- "555.666.777.888"
注意,如果你使用的 ZooKeeper 集群的端口不是默认端口,你还需要相应地配置 storm.zookeeper.port。
2) storm.local.dir:Nimbus 和 Supervisor 后台进程都需要一个用于存放一些状态数据(比如 jar 包、配置文件等等)的目录。你可以在每个机器上创建好这个目录,赋予相应的读写权限,并将该目录写入配置文件中,如下所示:
storm.local.dir: "/mnt/storm"
3) nimbus.host:集群的工作节点需要知道集群中的哪台机器是主机,以便从主机上下载拓扑以及配置文件,如下所示:
nimbus.host: "111.222.333.44"
4) supervisor.slots.ports:你需要通过此配置项配置每个 Supervisor 机器能够运行的工作进程(worker)数。每个 worker 都需要一个单独的端口来接收消息,这个配置项就定义了 worker 可以使用的端口列表。如果你在这里定义了 5 个端口,那么 Storm 就会在该机器上分配最多 5 个worker。如果定义 3 个端口,那 Storm 至多只会运行三个 worker。此项的默认值是 6700、6701、6702、6703 四个端口,如下所示:
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
5、启动
最后一步是启动所有的 Storm 后台进程。注意,这些进程必须在严格监控下运行。因为 Storm 是个与 ZooKeeper 相似的快速失败系统,其进程很容易被各种异常错误终止。之所以设计成这种模式,是为了确保 Storm 进程可以在任何时刻安全地停止并且在进程重新启动之后恢复征程。这也是 Storm 不在处理过程中保存任何状态的原因 —— 在这种情况下,如果有 Nimbus 或者 Supervisor 重新启动,运行中的拓扑不会受到任何影响。下面是启动后台进程的方法:
- Nimbus:在 master 机器上,在监控下执行
bin/storm nimbus
命令。 - Supervisor:在每个工作节点上,在监控下执行
bin/storm supervisor
命令。Supervisor 的后台进程主要负责启动/停止该机器上的 worker 进程。 - UI:在 master 机器上,在监控下执行
bin/storm ui
命令启动 Storm UI(Storm UI 是一个可以在浏览器中方便地监控集群与拓扑运行状况的站点)后台进程。可以通过http://{nimbus.host}:8080
来访问 UI 站点