进入/关闭安全模式
hdfs dfsadmin -safemode enter/leave
上传文件到hdfs
bin/hadoop fs -put /home/hadoop/spark-1.6.2/lib/*.jar
查看hdfs中的文件
bin/hadoop fs -ls /
查看hbase元数据状态
hbase hbck
修复hbase元数据表
hbase hbck -fixMeta
重新将hbase元数据表分给regionserver
hbase hbck -fixAssignments
开启Thriftserver
hbase-daemon.sh start thrift/thrift2
查看zookeeper日志
zkServer.sh start-foreground
进入zookeeper客户端
bin/zkCli.sh -server 192.168.6.187:2181
ls /hbase/table
创建zookeeper的hbase实例
create /hbase myhbase
进入mysql
mysql -uhive -phive
查看mysql状态
service mysql status(root登录)
开启mysql服务
service mysql start
开启hive元数据服务
bin/hive --service metastore &
开启hiveserver2服务
bin/hive --service hiveserver2 &
spark连接hive时,需要Hive端同时开启hiveserver2服务和metastore服务
查看metastore
jobs
连接hiveserver2客户端
bin/beeline -u 'jdbc:hive2://192.168.6.186:10000/silence1101;principal=hadoop/namenode@SILENCE.COM'
启动sparksql
bin/spark-sql
启动spark shell
bin/spark-shell
启动sparksql同时需要连接上hive
bin/spark-sql --master yarn --jars /home/hadoop/spark2.0.2/lib/mysql-connector-java-5.1.34.jar
向spark提交任务
bin/spark-submit --master spark:namenode:7077 --executor-memory 2g --num-executors 3 /home/hadoop/spark-1.6.2/sbin/Spark_Select.jar
kerberos申请票据
kinit -k -t /home/hadoop/hdfs.keytab hadoop/datanode1@SILENCE.COM
查询mongodb数据
db.getCollection('speeches').find({'_id':/AiKa/}).limit(5)