Hadoop集群软件启动命令
1.集群规划
hostname/ip | Hdfs | Yarn | Zk | Mysql | Hive | Sqoop | Flume | Az | Oozie | Hue |
---|---|---|---|---|---|---|---|---|---|---|
node01:192.168.204.138 | nn/2nn | rm1 | zk1 | hive | sqoop | flume | solo/exec | oozie | hue | |
node02:192.168.204.139 | dn1 | nm1 | zk2 | sqoop | flume | exec/web | ||||
node03:192.168.204.137 | dn2 | nm2 | zk3 | mysql | hive | sqoop | flume |
2.Hadoop启动和关闭命令
#启动命令
start-all.sh
#关闭命令
stop-all.sh
3.JobHistory启动和关闭命令
#启动命令
mr-jobhistory-daemon.sh start historyserver
#关闭命令
mr-jobhistory-daemon.sh stop historyserver
4.Zookeeper启动和关闭命令
#启动命令
zkServer.sh start
#关闭命令
zkServer.sh stop
5.Hive启动命令和关闭命令
#hivemetastore服务后台启动命令
nohup hive --service metastore &
#关闭命令
jps -m # 找到Hiveserver2运行的进程号
kill -9 17303 # 使用kill -9 进程号 关闭相应的服务
#hiveserver2服务后台启动命令
nohup hiveserver2 &
----------------------------
beeline
!connect jdbc:hive2://node03:10000
!connect jdbc:hive2://172.26.168.65:10000 # ECS_test2 机器
root
123456
---------------------------
#关闭命令
jps -m # 找到Hiveserver2运行的进程号
kill -9 17303 # 使用kill -9 进程号 关闭相应的服务
6.Azkaban solo-server 模式启动和关闭命令
注:solo-server模式在node01机器上面
#注:启动/关闭必须进到 azkaban-solo-server-0.1.0-SNAPSHOT/目录下
#启动命令
cd /export/servers/azkaban-solo-server
bin/start-solo.sh
# solo-server 模式 web端口为 http://node01:8081/
#关闭命令
cd /export/servers/azkaban-solo-server
bin/shutdown-solo.sh
7.Azkaban two-server 模式启动和关闭命令
注:two-server模式在node02机器上面
#注:启动/关闭必须进到 azkaban-exec-server/目录下
# 需要先启动exec-server,然后在手动激活exector,再启动web-server
#azkaban-exec-server启动命令
cd /export/servers/azkaban/azkaban-exec-server
bin/start-exec.sh
#手动激活 executor
curl -G "node02:$(<./executor.port)/executor?action=activate" && echo
#azkaban-web-server启动命令
cd /export/servers/azkaban/azkaban-web-server
bin/start-web.sh
# two-server 模式 web端口为 https://node01:8443/
--------------------------------------------------
#azkaban-exec-server关闭命令
cd /export/servers/azkaban/azkaban-exec-server
bin/shutdown-exec.sh
#azkaban-web-server关闭命令
cd /export/servers/azkaban/azkaban-web-server
bin/shutdown-web.sh
8.Oozie启动和关闭命令
#启动命令
oozied.sh start
#关闭命令 注: 尽量不要使用kill方式关闭进程
oozied.sh stop
9.Hue启动和关闭命令
#注:需要先从root用户下转换到用户hliushi下
su hliushi
#启动命令
supervisor
--------------------------
#页面访问 hue
http://node01:8888
#关闭命令
#在xshell按住ctrl+shift+c关闭进程即可
9.机器之间发送配置文件命令
scp /export/servers/hadoop-2.7.7/etc/hadoop/core-site.xml node02:/export/servers/hadoop-2.7.7/etc/hadoop/
scp /export/servers/hadoop-2.7.7/etc/hadoop/core-site.xml node03:/export/servers/hadoop-2.7.7/etc/hadoop/
10.Nginx启动和关闭命令
#注:nginx安装在node02机器上, 且没有配置环境变量
#启动命令
cd /usr/local/nginx
sbin/nginx -c conf/nginx.conf
----------------------------------
#查看nginx的运行转态
ps -ef | grep nginx
#关闭命令
sbin/nginx -s stop
11.Apache Server启动和关闭命令
#启动命令
service httpd start
#重启命令
service httpd restart
#关闭服务命令
service httpd stop
12.本地 yum 源信息
#本地yum源信息在 master主机上面
url : http://192.168.204.10/cdh5.14.0/
13.Redis启动和关闭命令
启动redis
# node01执行以下命令启动redis
cd /export/servers/redis-3.2.8/src
redis-server ../redis.conf
# 启动哨兵服务
cd /export/servers/redis-3.2.8
src/redis-sentinel sentinel.conf
# 查看redis的进程
ps -ef | grep redis
连接redis客户端
cd /export/servers/redis-3.2.8/src
redis-cli -h node01
关闭命令
# 执行如下命令即可正常断开redis连接
node03:6379> shutdown # 关闭server服务
not connected> quit
14.Hbase启动和关闭命令
注意事项:Hbase强依赖于HDFS以及zookeeper,所以安装Hbase之前一定要保证Hadoop和zookeeper正常启动
# HBase集群启动命令 -- node01为Hbase master节点 node02为Hbase master backup 备份
start-hbase.sh
# 浏览器页面访问
# http://node01:16010/master-status
---------------------------
# 单节点启动方式命令
# 启动HMaster命令
hbase-daemon.sh start master
# 启动HRegionServer命令
hbase-daemon.sh start regionserver
# 集群关闭命令
stop-hbase.sh