大数据各部分功能组件启动命令

hadoop部分

hive的启动命令

1.启动hiveserver2:  输入hive --service hiveserver2 --hiveconf hive.server2.thrift.port=10000
2.这时hive的服务器开启,再重新打开一个窗口输入beeline,出现beeline version的信息

3.在输入!connect jdbc:hive2://172.17.11.183:10000/default,此时红色圈的ip要替换成自己机器上的IP。
这时hive启动成功,可以使用show databases;命令来查看自己的数据库啦!

4.注意的部分,由于我的机器没有进行配置,所以在每次执行之前都要输入 source /etc/profile使配置文件生效
否则会显示无法找到命令

hbase的启动命令

启动顺序 hadoop->zookeeper->hbase
1.hadoop启动
首先进入到目录下
cd /usr/local/hadoop/sbin
在sbin的目录下执行  ./start-all.sh
2.zookeeper的启动
首先进入目录
cd /usr/local/zookeeper/bin/
在bin目录下执行  ./zkServer.sh start
3.hbase的启动
首先进入目录
cd /usr/local/hbase/bin/
在bin目录下执行  ./start-hbase.sh或者是./hbase shell,出现下图界面表示hbase已经启动成功

hue的启动

hue的启动比较简单,直接进入hue的目录下执行   build/env/bin/supervisor就ok了

直接访问ip+8888可以出现hue的访问界面

Kafka部分

kafka集群启动

1.首先启动zookeeper集群(在zookeeper的目录下)
nohup ./bin/zkServer.sh start > zookeeper.log 2>&1 &
2.启动Kafka集群(在Kafka的目录下)
nohup bin/kafka-server-start.sh config/server.properties > logs/kafka-server.log 2>&1 &

3.单机版测试
  • 创建topic
           bin/kafka-topics.sh --create --zookeeper 172.17.11.183:2181 --replication-factor 1 --partitions 1 --topic Trident_Kafka
   ip要换成自己机器上的IP,topic后面是自己创建的话题
  • 启动producer生产消息
          bin/kafka-console-producer.sh --broker-list 172.17.11.183:9092 --topic Trident_Kafka
  • 启动consumer消费消息
         bin/kafka-console-consumer.sh --zookeeper 172.17.11.183:2181 --topic Trident_Kafka --from-beginning


这些是最近碰上的一些比较常用的启动命令了,一定要确保在启动之前已经安装成功哦!有了这个就不用总翻文档了哈哈哈






 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值