1.hadoop
start-all.sh
2.zookeeper
启动:zkServer.sh start
停止:zkServer.sh stop
3.hbase
启动服务:start-hbase.sh
启动hbase:hbase shell
停止:stop-hbase.sh
4.hive
hive 启动:nohup hive --service metastore &
beeline启动:nohup --service hiveserver2 &
进入hive:hive
进入beeline(需要再hive的bin目录下运行,否则会和spark中的beeline冲突):
./beeline -u jdbc:hive2://localhost:10000 -n "root" -p "ok"
如果需要解除安全模式:hdfs dfsadmin -safemode leave
hive历史日志服务:mr-jobhistory-daemon.sh start historyserver
5.spark
在spark的sbin的目录下运行./start-all.sh
再运行spark shell
,默认是本地模式,用来测试
本地模式:spark-shell --master local[*]
集群模式:spark-shell --master spark://MASTERHOST:7077
YARN模式:spark-shell --master yarn-client
6.zeppelin
启动zeppelin
./zeppelin-daemon.sh start
停止
./zeppelin-daemon.sh stop
默认端口号:8000