注意:安装storm的前提是必须安装好zookeeper,最好是在三台机子上搭建出来zookeeper。
storm集群组件
1、主控节点(老大):master node
一个集群只能有一个老大,这个老大上运行一个叫做Nimbus的后台程序,负责在storm集群内分发代码,分配任务给工作节点(小弟),并且负责监控集群的在运行状态。
2、工作节点(小弟):work node
集群里可以有好多小弟,每个小弟都运行一个叫做supervisor的进程,supervisor负责监听从nimbus(老大)分配给他执行的任务。
3、zookeeper的角色:
在storm集群中,老大和小弟的通信是通过zookeeper这个第三方来进行的
4、storm集群中的一个任务叫做topology。就相当于老大和小弟一块完成一件叫做topology的任务。在hadoop集群中这个任务叫做mapreduce .
搭建storm集群
1、搭建zookeeper集群
Storm使用Zookeeper协调集群,由于Zookeeper并不用于消息传递,所以Storm给Zookeeper带来的压力相当低。大多数情况下,单个节点的Zookeeper集群足够胜任,不过为了确保故障恢复或者部署大规模Storm集群,可能需要更大规模节点的Zookeeper集群(对于Zookeeper集群的话,官方推荐的最小节点数为3个)。
搭建过程参考我之前的帖子
http://blog.csdn.net/jiaotongqu6470/article/details/78301599
2、安装storm依赖库
(1)安装ZeroMQ 2.1.7 – 请勿使用2.1.10版本,因为该版本的一些严重bug会导致Storm集群运行时出现奇怪的问题。少数用户在2.1.7版本会遇到”IllegalArgumentException”的异常,此时降为2.1.4版本可修复这一问题。
下面的连接详细的讲述了zeromq的安装和可能遇到问题的解决办法。
http://blog.csdn.net/jiaotongqu6470/article/details/78309538
(2)安装JZMQ
下面的链接详细描述了jzmq的安装,以及安装可能好遇到的问题如何解决
http://blog.csdn.net/jiaotongqu6470/article/details/78309639
(3)安装Java7(自行百度)
(4)安装Python2.6.6(这一步可能会很麻烦,下面的解决的详细链接)
(5)安装unzip
yum install unzip
(6)下载并解压Storm发布版本:
需要在Nimbus(老大)和Supervisor(小弟)机器上安装Storm发行版本,可以采取先配置好一台然后复制到其他机器的办法。
下载Storm发行版本,推荐使用Storm0.8.1:
wget https://github.com/downloads/nathanmarz/storm/storm-0.8.1.zip
解压到安装目录:
unzip storm-0.8.1.zip
(7)修改storm.yaml配置文件
Storm发行版本解压目录下有一个conf/storm.yaml文件,用于配置Storm。默认配置在这里可以查看。conf/storm.yaml中的配置选项将覆盖defaults.yaml中的默认配置。以下配置选项是必须在conf/storm.yaml中进行配置的:
storm.zookeeper.servers: Storm集群使用的Zookeeper集群地址,其格式如下:
storm.zookeeper.servers:
- "111.222.333.444"
- "555.666.777.888"
如果Zookeeper集群使用的不是默认端口,那么还需要storm.zookeeper.port选项。
storm.local.dir: Nimbus和Supervisor进程用于存储少量状态,如jars、confs等的本地磁盘目录,需要提前创建该目录并给以足够的访问权限。然后在storm.yaml中配置该目录,如:
storm.local.dir: "/home/admin/storm/workdir"
java.library.path: Storm使用的本地库(ZMQ和JZMQ)加载路径,默认为”/usr/local/lib:/opt/local/lib:/usr/lib”,一般来说ZMQ和JZMQ默认安装在/usr/local/lib 下,因此不需要配置即可。
nimbus.host: Storm集群Nimbus机器地址,各个Supervisor工作节点需要知道哪个机器是Nimbus,以便下载Topologies的jars、confs等文件,如:
nimbus.host: "111.222.333.444"
supervisor.slots.ports: 对于每个Supervisor工作节点,需要配置该工作节点可以运行的worker数量。每个worker占用一个单独的端口用于接收消息,该配置选项即用于定义哪些端口是可被worker使用的。默认情况下,每个节点上可运行4个workers,分别在6700、6701、6702和6703端口,如:
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
3、 启动Storm各个后台进程
最后一步,启动Storm的所有后台进程。
和Zookeeper一样,Storm也是快速失败(fail-fast)的系统,这样Storm才能在任意时刻被停止,并且当进程重启后被正确地恢复执行。这也是为什么Storm不在进程内保存状态的原因,即使Nimbus或Supervisors被重启,运行中的Topologies不会受到影响。
以下是启动Storm各个后台进程的方式:
(1)Nimbus: 在Storm主控节点上(老大)运行”bin/storm nimbus >/dev/null 2>&1 &”启动Nimbus后台程序,并放到后台执行;
(2)Supervisor: 在Storm各个工作节点上(每个小弟都要起)运行”bin/storm supervisor >/dev/null 2>&1 &”启动Supervisor后台程序,并放到后台执行;
(3)UI: 在Storm主控节点上运行”bin/storm ui >/dev/null 2>&1 &”启动UI后台程序,并放到后台执行,启动后可以通过http://{nimbus host}:8080观察集群的worker资源使用情况、Topologies的运行状态等信息。
4、注意点
**(1)**Storm后台进程被启动后,将在Storm安装部署目录下的logs/子目录下生成各个进程的日志文件。
(2)经测试,Storm UI必须和Storm Nimbus部署在同一台机器上,否则UI无法正常工作,因为UI进程会检查本机是否存在Nimbus链接。
(3)为了方便使用,可以将bin/storm加入到系统环境变量中。
至此,Storm集群已经部署、配置完毕,可以向集群提交拓扑运行了。