大数据组件服务的启动与关闭命令

本文主要整理了大数据组件服务的启动与关闭命令,主要包括Hadoop,Spark,HBase,Hive,Zookeeper,Storm,Kafka,Flume,Solr,ElasticSearch。 

1、Hadoop集群
1 )启动方式切换到主节点的hadoop安装目录下的sbin目录下a)/start-dfs .sh ./start-yarn .sh (建议使用)b)./start-all .sh 2 )关闭方式a)./stop-dfs .sh ./stop-yarn .sh (建议使用)b)./stop-all .sh

2、Spark集群
切换到主节点的Spark安装目录下的sbin目录下(1)启动方式./ start - all .sh( 2 )关闭方式./stop- all .sh

3、HBase集群
1 )启动方式 先启动Hadoop集群 ,后启动HBASE #cd $HBASE_HOME/bin #./start-hbase.sh 2 )关闭方式 #cd $HBASE_HOME/bin #./stop-hbase.sh 3 )web访问方式Masterhttp: //192.168.2.12:60010/master-status RegionServerhttp: //192.168.2.12:60030/

4、Hive
hadoop必须已经启动 切换到节点的Hive安装目录下的bin目录 (1)启动Hive: . /hive 如果配置环境变量 直接输入hive 或者 . /hive -- service cli

5、Kafka
切换到节点的Kafka安装目录下的bin目录 (1)启动Kafka服务: . /kafka - server - start . sh config/server . properties
后台启动命令: ./kafka-server-start.sh -daemon config/server.properties (2)查看Kafka状态: . /zkServer . sh status (3)创建topic: . /kafka - topics . sh -- create -- zookeeper localhost:主机ip -- replication - factor 3 -- partitions 1 -- topic topic名字 (3是在配置文件中配置的replication-factor,1是在partitions中配置的) (4)查看topic: . /kafka - topics . sh -- list -- zookeeper localhost:2181 (5)发送消息: . /kafka - console - producer . sh -- broker - list localhost:9092 -- topic topic名字 (6)接收消息: . /kafka - console - consumer . sh -- zookeeper localhost:2181 -- topic topic名字 -- from - beginning (7)查看topic情况: . /kafka - topics . sh -- describe -- zookeeper localhost:2181 -- topic my - replicated - topic (8)删除topic: . /kafka - topics . sh -- zookeeper localhost:2181 -- delete -- topic topic名字 (9)关闭Kafka服务:1、jps查看pid 2、kill - 9 pid


6、ZooKeeper
切换到节点的zookeeper安装目录下的bin目录( 1 )启动ZK服务:./zkServer .sh start( 2 )查看ZK服务状态:./zkServer .sh status( 3 )停止ZK服务:./zkServer .sh stop( 4 )重启ZK服务:./zkServer .sh restart

使用 jps 查看:
jps
结果
QuorumPeerMain

7、Storm
切换到节点的Storm安装目录下的bin目录( 1 )启动Storm主结点:nohup ./storm nimbus > ../logs/info 2 >& 1 &( 2 )启动Storm从结点:./storm supervisor > ../logs/info 2 >& 1 &( 3 )启动Storm管理界面:./storm z ui> /dev/ null 2 >& 1 &( 4 )启动Storm日志:nohup storm logviewer > /dev/ null 2 >& 1 &( 5 )查看任务:./storm list ( 6 )杀死任务:./storm kill lifeCycle(任务名称)


8、Flume
切换到Flume安装目录下
1 )启动服务 :bin/flume-ng agent -c conf -f flume-netcat.properties -name a -Dflume.root.logger=INFO,console 2 )停止服务: 1 、jps查看pid 2 、kill - 9 pid

9、Solr
进入安装目录下的example目录( 1 )启动服务:后台运行solr,默认监听 8983 端口nohup java -jar start . jar > /dev/ null & 2 )停止服务:java -DSTOP . PORT = 8983 -DSTOP . KEY = solr -jar start . jar –stop

10、ElasticSearch
下载并解压elasticsearch-servicewrapper-master把service目录拷贝到ES_HOME/bin / 目录下面cd ES_HOME/bin/service( 1 )启动服务: . /elasticsearch start( 2 )关闭服务: . /elasticsearch stop

11.sqoop
进入安装目录下
首先启动server,再打开shell
开启服务: ./bin/sqoop2-server start
打卡shell: ./bin/sqoop2-shell
查看安装版本: ./bin/sqoop2-tool verify


12.MySql
启动mysql mysql -u root -p
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值