因要安装pinpoint1.8.3所有需要安装hbase,因为是测试所有就安装一个伪分布式吧。
hbase安装需要hdfs,先来安装一下hadoop吧。
http://naver.github.io/pinpoint/1.8.3/main.html
我们需要hbase1.2.6版本,hadoop需要2.7.3先下载
wget http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz
wget http://mirror.bit.edu.cn/apache/hbase/1.2.6/hbase-1.2.6-bin.tar.gz
参考之前写过一篇
https://blog.csdn.net/zipo/article/details/54705925
添加用户:
adduser hbase123
passwd hbase123
gpasswd -a hbase root
chown -R hbase:root /httx/run/hbase
密码hbase
用户密码时间长可能会被锁,删除用户跟换新用户
1、修改环境变量hadoop-env.sh的jdk路径
2、修改core-site.xml
需要说明
<property>
<name>hadoop.tmp.dir</name>
<value>/httx/run/hbase/hadoop-2.7.3/data</value>
</property>
datanode的数据会在这个文件夹中。
3、hdfs-site.xml
<property>
<name>dfs.datanode.name.dir</name>
<value>file:///httx/run/hbase/hadoop-2.7.3/data</value>
</property>
设置datanode路径并不生效,datanode路径任然在hadoop.tmp.dir下。不知何原因,可能因为没有root权限,不能免密登陆。
设置完成后,进行格式化
bin/hdfs namenode -format
bin/hdfs datanode -format
格式化完成后,启动。
sbin/start-dfs.sh
但是查看datanode并没有启动也可能是权限关系,单独启动命令
sbin/hadoop-daemon.sh start datanode
查看jps
可以看到namenode,datanode,secondary namenode都已经启动。
页面查看已经可以打开。
bin/hdfs dfs -mkdir /test
bin/hdfs dfs -put /httx/run/hbase/hadoop-2.7.3/README.txt /test
查看是否可以上传成功。
配置yarn
mapred-site.xml
yarn-site.xml
设置slaves,hostname
启动
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
jps查看:
二、HBASE安装
修改hbase-site.xml
复制hadoop的 hdfs-site.xml,core-site.xml到hbase/conf中
编辑 vim hbase-1.2.6/conf/regionservers
去掉默认的localhost,加入master
在Hadoop已经启动成功的基础上,输入start-hbase.sh
,过几秒钟便启动完成,接下来使用jps
查看运行进程
看到额外的HMaster、HQuormPeer、HRegionServer进程则是启动成功。
HMaster如果启动不了查看日志。
[root@mt-kafka-30 /httx/run/hbase/hadoop-2.7.3]# bin/hadoop fs -ls /hbase 查看hdfs中文件
[root@mt-kafka-30 /httx/run/hbase/hadoop-2.7.3]# bin/hdfs dfs -rm -r /hbase 清空所有文件
http://10.77.32.51:16030/rs-status?filter=all
使用bin/stop-hbase.sh
命令即可停止Hbase服务
输入hbase shell
命令之后,就可以进入hbase命令模式,在命令行模式下键入status
即可查看当前信息,本机的信息状态为:
hbase(main):001:0> status
1 active master, 0 backup masters, 1 servers, 0 dead, 484.0000 average load
使用exit
命令就可以退出命令行模式。