环境
操作系统:Centos 7
Hadoop版本:2.9.2
JDK版本:1.8.0_221
Storm版本:1.2.3
Zookeeper版本:3.5.8
集群规划:
主机名 | IP |
---|---|
master | 192.168.1.121 |
slave1 | 192.168.1.122 |
slave2 | 192.168.1.123 |
下载
下载地址:https://mirrors.tuna.tsinghua.edu.cn/apache/storm/apache-storm-1.2.3/
安装
将下载的压缩包解压之后放在/home/apps目录下并将其名字改为storm
[root@master dev]# mkdir -p /home/apps/
[root@master dev]# tar -zxvf apache-storm-1.2.3.tar.gz -C /home/apps/
[root@master dev]# cd /home/apps/
[root@master apps]# ll
total 28
drwxr-xr-x. 7 root root 4096 Jan 23 10:33 flume
drwxr-xr-x. 7 root root 4096 Jan 21 17:13 hbase
drwxr-xr-x. 7 root root 4096 Jan 22 15:04 kafka
drwxr-xr-x. 15 centos centos 4096 Jan 23 14:38 spark
drwxr-xr-x. 9 centos centos 4096 Dec 19 2017 sqoop
drwxr-xr-x. 14 root root 4096 Jan 23 16:08 apache-storm-1.2.3
drwxr-xr-x. 8 root root 4096 Jan 15 20:58 zookeeper
[root@master apps]# mv apache-storm-1.2.3 storm
配置
storm需要配置storm.yaml文件
[root@master apps]# cd storm/conf
[root@master conf]# ll
total 20
-rw-------. 1 root root 580 Jan 23 16:08 nohup.out
-rw-r--r--. 1 503 games 1128 May 5 2019 storm_env.ini
-rwxr-xr-x. 1 503 games 930 May 5 2019 storm-env.ps1
-rwxr-xr-x. 1 503 games 947 May 5 2019 storm-env.sh
-rw-r--r--. 1 503 games 3946 Jan 23 16:04 storm.yaml
[root@master conf]# vi storm.yaml
修改代码
storm.zookeeper.servers:
- "master"
- "slave1"
- "slave2"
nimbus.host: "master"
storm.local.dir: "/home/apps/storm/data"
ui.port: 8888
supervisor.slots.ports:
- 6700
- 6701
- 6702
配置注释
storm.zookeeper.servers:Zookeeper集群的主机列表
nimbus.host: Storm集群Nimbus工作的主机名
storm.local.dir:Nimbus和Supervisor守护程序需要一个本地磁盘目录存储小量状态(像jars,confs,其它),每台机器都创建这些目录,赋可写权限
ui.port: 使用浏览器ui界面访问时的端口
supervisor.slots.ports:每一台worker机器,你用这个配置来指定多少workers运行在那台机。每个worker使用单一端口接收消息,并且这个设置定义哪个端口是打开的且可以使用。如果你定义4个端口,那么Storm将在这台机分配4个worker运行。
启动
master节点启动
[root@master conf]# nohup /home/apps/storm/bin/storm nimbus &
[root@master conf]# nohup /home/apps/storm/bin/storm ui &
[root@master conf]# nohup /home/apps/storm/bin/storm logviewer &
slave1和slave2节点启动
[root@master conf]# nohup /home/apps/storm/bin/storm supervisor &
查看是否启动成功
[root@master conf]# jps
9056 core
1473 Worker
18274 Kafka
12804 QuorumPeerMain
9640 logviewer
4395 nimbus
15084 Jps
8494 DataNode
8239 NameNode
1298 Master
9174 ResourceManager
9335 NodeManager
24120 SparkSubmit
8826 SecondaryNameNode
出现 core 、nimbus 、logviewer 启动成功
结语:大数据Hadoop笔记 Storm 安装与配置