本文暂时收录大数据相关的mysql,hdfs,yarn,hive,zookeeper,kafka的启停命令,后续会持续添加。(默认配置都已经完成)
mysql:
本地启动:
mysql -uroot -p
远程启动:
mysql -uroot -p -h ip地址
关闭:
exit #或者Ctrl + d
hdfs:
启动:
start-dfs.sh
关闭:
stop-dfs.sh
yarn:
启动:
start-yarn.sh
关闭:
stop-yarn.sh
spark:
启动:
/export/server/spark/sbin/start-all.sh
关闭:
/export/server/spark/sbin/stop-all.sh
hive:
启动historyserver(历史服务器):
mapred --daemon start historyserver。
进入hive的安装目录:
cd /export/server/hive #填你们自己的hive安装路径
后台启动metastore(元数据管理服务):
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
注意标红的地方,可能与你的不一样,注意用自己的 。
此处的一些解释:将所有的日志转存到logs文件夹里面的metastore.log; nohup 后台运行
后台启动hiveserver服务:
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
启动Beeline客户端:
bin/beeline # /export/server/hive
进入Beeline客户端后,通过Beeline客户端连接hiveserver:
! connect jdbc:hive2://node1:10000 #node1主机名映射,用ip地址也行
输入启动hive的用户名
有密码输入密码
启动hive内置客户端(内置SQL解析器):
bin/hive # /export/server/hive
关闭:
exit
zookeeper:
启动:
/export/server/zookeeper/bin/zkServer.sh start #注意路径
关闭:
/export/server/zookeeper/bin/zkServer.sh stop #注意路径
kafka:
启动:
注意:请先确保Zookeeper已经启动了
方式1:【前台启动】分别在node1、2、3上执行如下语句( 注意路径)
/export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties
方式2:【后台启动】分别在node1、2、3上执行如下语句
nohup /export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties 2>&1 >> /export/server/kafka/kafka-server.log &
关闭:
/export/server/kafka/bin/kafka-server-stop.sh #注意路径