集群启动命令

Hadoop集群软件启动命令

1.集群规划

hostname/ipHdfsYarnZkMysqlHiveSqoopFlumeAzOozieHue
node01:192.168.204.138nn/2nnrm1zk1hivesqoopflumesolo/execooziehue
node02:192.168.204.139dn1nm1zk2sqoopflumeexec/web
node03:192.168.204.137dn2nm2zk3mysqlhivesqoopflume

2.Hadoop启动和关闭命令

#启动命令
start-all.sh
#关闭命令
stop-all.sh

3.JobHistory启动和关闭命令

#启动命令
mr-jobhistory-daemon.sh start historyserver
#关闭命令
mr-jobhistory-daemon.sh stop historyserver

4.Zookeeper启动和关闭命令

#启动命令
zkServer.sh start

#查看状态
zkServer.sh status

#关闭命令
zkServer.sh stop

# zkui可视化工具启动命令
cd /data/zkui && nohup java -jar zkui-2.0-SNAPSHOT-jar-with-dependencies.jar &

# 查看进程
netstat  -tunpl | grep  :9090

image-20210815161930989

5.Hive启动命令和关闭命令

#hivemetastore服务后台启动命令
nohup hive --service metastore &
nohup hive --service metastore 2>&1 >> /var/log.log &
#关闭命令
jps -m 			# 找到Hiveserver2运行的进程号
kill -9 17303  	 # 使用kill -9 进程号 关闭相应的服务
#hiveserver2服务后台启动命令
nohup hiveserver2 &
----------------------------
beeline
!connect jdbc:hive2://node03:10000
!connect jdbc:hive2://172.26.168.65:10000		# ECS_test2 机器

root
123456
---------------------------
#关闭命令
jps -m 			# 找到Hiveserver2运行的进程号
kill -9 17303  	 # 使用kill -9 进程号 关闭相应的服务

image-20210412205835909

6.Azkaban solo-server 模式启动和关闭命令

注:solo-server模式在node01机器上面

#注:启动/关闭必须进到 azkaban-solo-server-0.1.0-SNAPSHOT/目录下
#启动命令
cd /export/servers/azkaban-solo-server
bin/start-solo.sh
#  solo-server 模式 web端口为 http://node01:8081/

#关闭命令
cd /export/servers/azkaban-solo-server
bin/shutdown-solo.sh

7.Azkaban two-server 模式启动和关闭命令

注:two-server模式在node02机器上面

#注:启动/关闭必须进到 azkaban-exec-server/目录下
#   需要先启动exec-server,然后在手动激活exector,再启动web-server
#azkaban-exec-server启动命令
cd /export/servers/azkaban/azkaban-exec-server
bin/start-exec.sh
#手动激活 executor
curl -G "node02:$(<./executor.port)/executor?action=activate" && echo
#azkaban-web-server启动命令
cd /export/servers/azkaban/azkaban-web-server
bin/start-web.sh

#  two-server 模式 web端口为 https://node01:8443/
--------------------------------------------------

#azkaban-exec-server关闭命令
cd /export/servers/azkaban/azkaban-exec-server
bin/shutdown-exec.sh
#azkaban-web-server关闭命令
cd /export/servers/azkaban/azkaban-web-server
bin/shutdown-web.sh

8.Oozie启动和关闭命令

#启动命令
oozied.sh start
#关闭命令  注: 尽量不要使用kill方式关闭进程
oozied.sh stop

9.Hue启动和关闭命令

#注:需要先从root用户下转换到用户hliushi下
su hliushi
#启动命令
supervisor
--------------------------
#页面访问 hue
http://node01:8888
#关闭命令
#在xshell按住ctrl+shift+c关闭进程即可

9.机器之间发送配置文件命令

scp /export/servers/hadoop-2.7.7/etc/hadoop/core-site.xml node02:/export/servers/hadoop-2.7.7/etc/hadoop/
scp /export/servers/hadoop-2.7.7/etc/hadoop/core-site.xml node03:/export/servers/hadoop-2.7.7/etc/hadoop/

10.Nginx启动和关闭命令

#注:nginx安装在node02机器上, 且没有配置环境变量
#启动命令
cd /usr/local/nginx
sbin/nginx -c conf/nginx.conf
----------------------------------
#查看nginx的运行转态
ps -ef | grep nginx
#关闭命令
sbin/nginx -s stop

image-20210414100443421

11.Apache Server启动和关闭命令

#启动命令
service httpd start
#重启命令
service httpd restart
#关闭服务命令
service httpd stop

12.本地 yum 源信息

#本地yum源信息在 master主机上面
url : http://192.168.204.10/cdh5.14.0/

13.Redis启动和关闭命令

启动redis

# node01执行以下命令启动redis
cd  /export/servers/redis-3.2.8/src
redis-server  ../redis.conf
# 启动哨兵服务
cd /export/servers/redis-3.2.8
src/redis-sentinel sentinel.conf 
# 查看redis的进程
ps -ef | grep redis

连接redis客户端

cd /export/servers/redis-3.2.8/src
redis-cli -h node01

关闭命令

# 输入auth 123456 即可登录进入客户端
node03:6379> auth 123456
# 执行如下命令即可正常断开redis连接
node03:6379> shutdown		# 关闭server服务
not connected> quit

image-20210422100738486

14.Hbase启动和关闭命令

注意事项:Hbase强依赖于HDFS以及zookeeper,所以安装Hbase之前一定要保证Hadoop和zookeeper正常启动

# HBase集群启动命令 -- node01为Hbase master节点  node02为Hbase master backup 备份
start-hbase.sh

# 关闭集群命令
stop-hbase.sh

# 浏览器页面访问
# http://node01:16010/master-status

---------------------------
# 单节点启动方式命令
# 启动HMaster命令
hbase-daemon.sh start master
# 启动HRegionServer命令
hbase-daemon.sh start regionserver

---------------------------
# hbase的thrift server服务启动命令  启动hue之前要启动这个服务
hbase-daemon.sh start thrift 
# 关闭服务命令
hbase-daemon.sh stop thrift

image-20210422214039210

进入HBase客户端命令操作界面

[root@node01 export]# hbase shell
hbase(main):001:0> 
# 集群关闭命令
stop-hbase.sh

15.Kafka启动和关闭命令

注意事项:在kafka启动前,一定要让zookeeper启动起来。

# 可以选择先进入kafka的安装目录, 只是把这个nohup.out输出到当前路径下而已
cd /export/servers/kafka_2.11-0.10.0.0
nohup kafka-server-start.sh config/server.properties 2>&1 &
# 启动命令-后台启动
nohup kafka-server-start.sh /export/servers/kafka_2.11-0.10.0.0/config/server.properties 2>&1 &

# 停止命令
kafka-server-stop.sh

image-20210428100051064

16.Kafka-eagle启动和关闭命令

# 启动命令	 安装在node01 机器上
ke.sh start
----------------------
# web端口访问
http://node01:8048/ke
# 账号: admin  密码 : 123456

image-20210429151004406

# 启动
ke.sh start
# 查看状态
ke.sh status
# 关闭
ke.sh stop
# 重启
ke.sh restart

17.Spark启动和关闭命令

注意下:Spark并没有配置环境变量, 个人觉得有一个命令和hadoop命令一样了,启动同样的命令有问题

# 启动 Spark Master 和 Slaves, 以及 HistoryServer  -- Spark Master在node01
# 注意由于spark集群配置了高可用, 是基于Zookeeper搭建起来的高可用
# 并且修改了spark-env.sh 配置文件, 添加了Spark运行时参数, 从而指定Zookeeper的位置 
# 所以确保启动高可用Spark之前, 一定先启动Zookeeper!!!
-------------------------------------------------------------
# Zookeeper启动命令 [三台机器都要启动]
zkServer.sh start
cd /export/servers/spark
sbin/start-all.sh
sbin/start-history-server.sh

# spark的web UI 端口 
http://node01:8080/

# 关闭 Spark 和 HistoryServer
cd /export/servers/spark
sbin/stop-all.sh
sbin/stop-history-server.sh

image-20210511173847439

# 启动 Spark shell
cd /export/servers/spark
bin/spark-shell --master local[2]

问题出现:Can only call getServletHandlers on a running MetricsSystem

image-20210513091142549

原因: spark 集群的 worker 都挂掉了, 挂掉的原因是没有启动Zookeeper, 高可用的Spark集群是基于Zookeeper搭建起来的, 启动高可用的Spark的需要指定Zookeeper的位置, 如果不提前开启来zookeeper,那样Spark集群的 worker都会挂掉

image-20210513093123021

解决方式

记得启动之前开启Zookeeper!!!, 不然worker还是会挂掉

image-20210513091241363

18.CDH版本Hadoop服务启动命令

服务命令
httpdservice httpd start
Zookeeperservice zookeeper-server start
hdfs-namenodeservice hadoop-hdfs-namenode start
hdfs-datanodeservice hadoop-hdfs-datanode start
hdfs-secondarynamenodeservice hadoop-hdfs-secondarynamenode start
yarn-resourcemanagerservice hadoop-yarn-resourcemanager start
mapreduce-historyserverservice hadoop-mapreduce-historyserver start
yarn-nodemanagerservice hadoop-yarn-nodemanager start
hive-metastoreservice hive-metastore start
hive-server2service hive-server2 start
kudu-masterservice kudu-master start
kudu-tserverservice kudu-tserver start
impala-state-storeservice impala-state-store start
impala-catalogservice impala-catalog start
impala-serverservice impala-server start
hueservice hue start
ntpservice ntpd start ntpstat

19.centos6与centos7服务开启关闭命令对比

指令名称centos 6centos 7
启动服务service httpd startsystemctl start httpd.service
关闭服务service httpd stopsystemctl stop httpd.service
重启服务service httpd restartsystemctl restart httpd.service
查看服务状态service httpd statussystemctl status httpd.service
设置服务开机启动chkconfig httpd onsystemctl enable httpd.service
设置服务开机关闭chkconfig httpd offsystemctl disable httpd.service
查看服务开机启动chkconfig –listsystemctl list-units –type=service

20.Flink启动和关闭命令

# 注意由于spark集群配置了高可用, 是基于Zookeeper搭建起来的高可用
# 所以确保启动高可用Spark之前, 一定先启动Zookeeper!!!
# Zookeeper启动命令 [三台机器都要启动]
zkServer.sh start

# 启动和关闭Flink集群
start-cluster.sh
stop-cluster.sh

# flink的web UI 端口 
http://node01:8081/

image-20210601084952764

21.RocketMQ启动和关闭命令

多Master多Slave模式服务启动和关闭 [没有自动创建topic]

# 服务启动
# 1. 启动NameServe集群(分别在1,2号服务器启动)
cd /export/servers/rocketmq-4.6.0/bin
nohup sh mqnamesrv &

# 2. 启动Broker集群
# 一号服务器
# master1
nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-a.properties & autoCreateTopicEnable=true

# slave2
nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-b-s.properties & autoCreateTopicEnable=true

# 二号服务器
# master2
nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-b.properties & autoCreateTopicEnable=true

# slave1
nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-a-s.properties & autoCreateTopicEnable=true

# 注意问题: 在PowerShell窗口下执行maven命令 出错Unknown lifecycle phase “.test.skip=true”.
# 原因: 在PowerShell窗口下, 执行带参数的需要 '' 单引号包起来才可以
# 方式1 
# 命令改为 
mvn clean install package '-Dmaven.test.skip=true'
# 方式2
# 不要使用PowerShell命令行模式,使用 cmd 进入命令行执行
mvn clean install package -Dmaven.test.skip=true

# console启动命令  devp 端口在9900    cvm端口在9999
# 可以运行参数上更改运行端口和rocketMQ集群地址
# java -jar rocketmq-console-ng-2.0.0.jar --server.port=8080 --rocketmq.config.namesrvAddr=127.0.0.1:9876
java -jar dev-rocketmq-console-ng-2.0.0.jar


# 3. rocketmq服务关闭
# 关闭broker服务
sh mqshutdown broker

# 关闭namesrv服务:
sh mqshutdown namesrv

单机版启动和关闭命令

cd /export/servers/rocketmq-4.6.0/

### 启动 NameServer 服务和路由
# 启动命令,并且常驻内存,nohup 属于后台启动,当前目录下生成 nohup.out 日志文件,也可以指定日志输出位置。
# sh mqnamesrv :属于终端启动,直接输出日志信息,按 ctrl+c 可直接关闭退出
nohup sh mqnamesrv &

# 查看启动日志,能看到 "The Name Server boot success" 字样则成功
tail -f ~/logs/rocketmqlogs/namesrv.log

### 启动 Broker 中间件
nohup sh mqbroker -c conf/broker.conf -n localhost:9876 &

# sh mqbroker -n localhost:9876 :属于终端启动,直接输出日志信息,按 ctrl+c 可直接关闭退出

# 查看启动日志
tail -f ~/logs/rocketmqlogs/broker.log

### 关闭命令
# 先关闭 broker、在关闭 nameserv
sh mqshutdown broker
sh mqshutdown namesrv

# web可视化界面命令  端口9999
java -jar cvm-rocketmq-console-ng-2.0.0.jar --rocketmq.config.namesrvAddr=cvm-node02:9876

测试RocketMQ

cd /export/servers/rocketmq-4.6.0
# 发送消息
# 1.设置环境变量
export NAMESRV_ADDR=localhost:9876
# 2.使用安装包的Demo发送消息
sh bin/tools.sh org.apache.rocketmq.example.quickstart.Producer

# 接收消息
# 1.设置环境变量
export NAMESRV_ADDR=localhost:9876
# 2.接收消息
sh bin/tools.sh org.apache.rocketmq.example.quickstart.Consumer
查看集群情况./bin/mqadmin clusterList -n 127.0.0.1:9876
查看 broker 状态./bin/mqadmin brokerStatus -n 127.0.0.1:9876 -b 172.20.1.138:10911
查看 topic 列表./bin/mqadmin topicList -n 127.0.0.1:9876
查看 topic 状态./bin/mqadmin topicStatus -n 127.0.0.1:9876 -t MyTopic (换成想查询的 topic)
查看 topic 路由./bin/mqadmin topicRoute -n 127.0.0.1:9876 -t MyTopic



win10服务运行

# D:\develop\rocketmq-all-4.6.0-bin-release\bin
# 打开cmd
start mqnamesrv.cmd
start mqbroker.cmd -n 127.0.0.1:9876 autoCreateTopicEnable=true

21.WIN10中CMD随笔

########################################################
# cmd 命令随笔
# 输入 D:  可切换到 D盘路径下 同理,使用 F:切换到 F盘路径下

C:\Users\llhuang10>D:
D:\>
# dir命令显示当先目录, 等同于  Linux中的 ll或ls
D:\>dir
 驱动器 D 中的卷没有标签。
 卷的序列号是 60A3-D0C6

 D:\ 的目录
 
2021/07/21  08:06    <DIR>          book_study
2021/07/22  09:13    <DIR>          code
2021/07/21  17:02    <DIR>          develop
2021/07/22  15:51    <DIR>          downloads
2021/07/22  10:03    <DIR>          home
2021/07/22  15:53    <DIR>          IdeaProjects
2021/07/21  19:13    <DIR>          iflytek
2021/07/22  08:10    <DIR>          Program Files
2021/07/21  16:52    <DIR>          Program Files (x86)
2021/07/22  16:02    <DIR>          tmp
2021/07/20  13:49    <DIR>          WebstormProjects
2021/07/15  17:02    <DIR>          workspace
               0 个文件              0 字节
              12 个目录 484,580,605,952 可用字节
D:\>
########################################################

22.集群之间免密登录

删除之前生成的公匙 (如果有)

rm ./id_rsa*            # 删除之前生成的公匙(如果有)

远程登录自身,也需要配置免秘钥!!

[root@cvm-node01 .ssh]# cat ./id_rsa.pub >> ./authorized_keys

问题1

chmod: 更改’authorized_keys’ 的权限: 不允许的操作

原因

在linux系统下

有些配置文件是不允许被任何人(包括root)修改的
为了防止被误修改或删除
可以设定该文件的不可修改位:immutable

解决办法 :chattr

# 防止关键文件被修改:
chattr +i authorized_keys
# 如果需要修改文件则:
chattr -i authorized_keys

问题2

sh: .ssh/authorized_keys: 权限不够

原因

修改修改.ssh目录的权限以及authorized_keys 的权限(这个必须修改,要不然还是需要密码)

解决办法

sudo chmod 644 ~/.ssh/authorized_keys
sudo chmod 700 ~/.ssh

image-20210811094336580

img

23.RabbitMQ启动和关闭命令

docker run -d --hostname my-rabbit --name rabbit -p 15672:15672 -p5672:5672 daocloud.io/library/rabbitmq:3.6.10-management

# 查看docker中的rabbitmq的运行状态
docker ps | grep rabbit

# 查看正在运行的容器
docker ps

# 删除指定容器
# docker rm 容器名称(或容器Id)
docker rm rabbit

image-20210816094941861

24.Jenkins启动和关闭命令

# 启动
service jenkins start
# 重启
service jenkins restart
# 停止
service jenkins stop
# 访问地址
http://cvm-node02:12345/
  • 2
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值