每天启动Hadoop集群时都会打开这份txt文档,现在看来觉得这份文档才是精髓,看一眼,就能理一遍思路。
如下的命令中,有启动Hadoop集群的,zookeeper集群的,hbase的,启动spark的,当然还有像Pig、Hive这些,直接输入就能进入。
总之,如果没有下面这个文档,每天遇到一些问题可能会毛手毛脚,甚至可能因为睡得懵懵的而忘了启动路径....
1.启动hadoop集群
cd /usr/local/hadoop-2.6.4/sbin/./start-all.sh
--------------------------------------------------------------
2.启动zookeeper集群
cd /home
zk start(已经配置好了可以直接启动)
--------------------------------------------------------------
3.cd /home
start-hbase.sh
--------------------------------------------------------------
4.hbase shell 进入终端
--------------------------------------------------------------
5. 启动Spark
进入目录:启动spark
cd /usr/local/spark-1.4.1-bin-hadoop2.6/sbin
./start-all.sh
--------------------------------------------------------------
6.进入spark-shell
cd /usr/local/spark-1.4.1-bin-hadoop2.6/bin/
./spark-shell
--------------------------------------------------------------
6*.只启动yarn的方式
cd /usr/local/spark-1.4.1-bin-hadoop2.6/bin/
./spark-shell --master yarn --executor-memory 400m --num-executors 6 --driver-memory 1g
补充: