Hadoop,Spark和HIve的启动命令

Hadoop和Spark命令

Hadoop启动命令

启动HDFS服务

start-dfs.sh
stop-dfs.sh

启动YARN服务

start-yarn.sh
stop-yarn.sh

启动同时启动

start-all.sh
stop-yarn.sh

Spark模式

Local本地模式

先启动hdfs服务

start-all.sh
或者
start-dfs.sh

启动交互式服务

/export/server/spark-3.0.1-bin-hadoop2.7/bin/spark-shell

独立集群模式

先启动hadoop的hdfs服务

start-all.sh
或者
start-dfs.sh

启动集群

/export/server/spark-3.0.1-bin-hadoop2.7/sbin/start-all.sh

启动交互式服务

/export/server/spark-3.0.1-bin-hadoop2.7/bin/spark-shell --master spark://node1:7077

完成上面两个命令就可以了

在主节点上单独启动和停止Master:

/export/server/spark-3.0.1-bin-hadoop2.7/sbin/start-master.sh

/export/server/spark-3.0.1-bin-hadoop2.7/sbin/stop-master.sh

在从节点上单独启动和停止Worker(Worker指的是slaves配置文件中的主机名)

/export/server/spark-3.0.1-bin-hadoop2.7/sbin/start-slaves.sh

/export/server/spark-3.0.1-bin-hadoop2.7/sbin/stop-slaves.sh

在主节点上停止服务

/export/server/spark-3.0.1-bin-hadoop2.7/sbin/stop-all.sh

Spark-On-Yarn模式

  1. 启动HDFS和YARN
start-dfs.sh
start-yarn.sh
或
start-all.sh
  1. 启动MRHistoryServer服务,在node1执行命令
mr-jobhistory-daemon.sh start historyserver
  1. 启动Spark HistoryServer服务,在node1执行命令
/export/server/spark-3.0.1-bin-hadoop2.7/sbin/start-history-server.sh

Hive启动

启动Hive前先启动hadoop服务
启动Hive服务有两种方式,前台启动和后台启动

服务端

前台启动

/export/server/apache-hive-3.1.2-bin/bin/hive --service metastore

前台启动开启debug日志

/export/server/apache-hive-3.1.2-bin/bin/hive --service metastore --hiveconf 
hive.root.logger=DEBUG,console

后台启动

  1. 启动metastore服务
    输出日志信息在/root目录下nohup.out
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &
  1. 启动hiveserver2服务
    输出日志信息在/root目录下nohup.out
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &

当metastore和hiveserver2同时启动时,应该有两个RunJar进程分别对应这两个服务,可以使用jps命令查看

客户端

客户端启动一般是在另一台主机上,比如服务端在node1上启动,客户端在node3上启动
Hive发展至今,总共历经了两代客户端工具。

  1. 第一代客户端(deprecated不推荐使用):
$HIVE_HOME/bin/hive

是一个 shellUtil。主要功能:一是可用于以交互或批处理模式运行Hive查询;二是用于Hive相关服务的启动,比如metastore服务

  1. 第二代客户端(recommended 推荐使用):
$HIVE_HOME/bin/beeline

是一个JDBC客户端,是官方强烈推
荐使用的Hive命令行工具,和第一代客户端相比,性能加强安全性提高

两代客户端的关系及其启动

第一代和第二代的关系如下
第一代和第二代的关系
可见,想要启动第二代客户端必须先启动第一代
想要启动,必须满足如下条件

  1. hadoop已启动
start-all.sh
  1. hive服务器已启动
    在hive安装的服务器上(node1),首先启动metastore服务,然后启动hiveserver2服务
# 先启动metastore服务 然后启动hiveserver2服务
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &
  1. 在另一台安装了hive的服务器上(node3)使用beeline客户端进行连接访问,需要注意hiveserver2服务启动之后需要稍等一会才可以对外提供服务
[root@node3 ~]# /export/server/apache-hive-3.1.2-bin/beeline

之后输入连接url即可连接

! connect jdbc:hive2://node1:10000

完整显示如下

# 输入连接url
beeline> ! connect jdbc:hive2://node1:10000
Connecting to jdbc:hive2://node1:10000
# 输入连接用户名,这里为root
Enter username for jdbc:hive2://node1:10000: root
# 输入连接密码,这里没有设置密码
Enter password for jdbc:hive2://node1:10000: 
Connected to: Apache Hive (version 3.1.2)
Driver: Hive JDBC (version 3.1.2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://node1:10000> 
  • 2
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值