5. Storm集群的安装配置
环境准备:centos;zookeeper;运行环境;storm-1.2.4
- 下载安装:
-
解压:
$ tar -zxvf apache-storm-1.2.4.tar.gz -C /opt/module
-
重命名:
$ mv apache-storm-1.2.4 storm
-
环境变量:
$ vim /etc/profile.d/my_env.sh export STORM_HOME=/opt/module/storm export PATH=$STORM_HOME/bin:$PATH
使环境变量立即生效:source /etc/profile
-
修改配置文件
${STORM_HOME}/conf/storm.yaml文件 vim storm.yaml
#Zookeeper集群的主机列表
storm.zookeeper.servers:
-“hadoop102”
-“hadoop103” -“hadoop104”
#Nimbus的节点列表
nimbus.seeds: [“hadoop102”, “hadoop103”]
#Nimbus和Supervisor需要使用本地磁盘上来存储少量状态(如jar包,配置文件等)
storm.local.dir: “/opt/module/storm/data”
#workers进程的端口,每个worker进程会使用一个端口来接收消息
supervisor.slots.ports:
-6700
-6701 -6702
-6703
#指定storm集群中的nimbus节点所在的服务器
nimbus.host: “hadoop102”
#web页面端口号
ui.port: 9999
注:supervisor.slots.ports 参数用来配置 workers 进程接收消息的端口,默认每个 supervisor 节点上会启动 4 个 worker,当然你也可以按照自己的需要和服务器性能进行设置,假设只想启动 2 个 worker 的话,此处配置 2 个端口即可。
注:文件内容的格式一定要注意,冒号后有空格,格式错误,进程是启动不了的
-
文件分发
xsync /opt/module/storm
注:xsync为自己编写脚本,若无脚本,使用
scp -r /opt/module/storm/ hadoop103:/opt/module scp -r /opt/module/storm/ hadoop104:/opt/module/
-
启动Zookeeper集群
$zk.sh start
注:zk.sh 为自己写的脚本,若无脚本,使用
bin/zkServer.sh start bin/zkServer.sh status
-
启动Storm集群
在hadoop102和Hadoop103两个主节点启动nimbus,从节点hadop104启动supervisor
hadoop102:
$ storm nimbus >>/opt/module/storm/logs/nimbus.out 2>&1 &
$ storm supervisor >>/opt/module/storm/logs/supervisor.out 2>&1 &
$ storm ui >> /opt/module/storm/logs/ui.out 2>&1 &
$ storm logviewer >> /opt/module/storm/logs/logviewer.out 2>&1 &
hadop103:
$ storm nimbus >>/opt/module/storm/logs/nimbus.out 2>&1 &
$ storm supervisor >>/opt/module/storm/logs/supervisor.out 2>&1 &
$ storm ui >> /opt/module/storm/logs/ui.out 2>&1 &
$ storm logviewer >> /opt/module/storm/logs/logviewer.out 2>&1 &
hadoop104:
$ storm supervisor >>/opt/module/storm/logs/supervisor.out 2>&1 &
$ storm logviewer >> /opt/module/storm/logs/logviewer.out 2>&1 &
-
停止进程
对于storm的进程只有使用kill命令来结束进程这一种方式
-
访问web端页面
其Web端地址:IP:9999