本篇介绍安装HBASE,具体怎么跟Hadoop一起玩不做介绍,因为我也不会>_<,怎么在Hadoop里写Java代码操作Hbase还需要继续研究,搞完HBASE就剩下安装Spark了。
下载
先去下载个当前的稳定版HBASE 1.2.6,注意不要和我一样犯傻下载了src,倒腾了半天发现总是说缺少库,除非您有兴趣重新编译一遍HBASE。
安装
将压缩包拷贝到bigdata-master,解压:
tar -zxvf hbase-1.2.6-bin.tar.gz
修改 /etc/profile, 在文件末尾增加如下环境变量,让hbase知道当前Hadoop安装位置,修改完后记得source一下令其生效:
进入hbase的解压后的目录 conf,修改hbase-env.sh ,在其中配置:
JAVA_HOME: java的环境变量
HBASE_MANAGES: 如果设置为true,表示使用HBASE自带的zookeeper,如果是false,就自行安装zookeeper吧。。。。hbase是用zookeeper来进行部署的。
编辑hbase-site.xml:
rootdir定位到hadoop下。
distributed设置为true(hbase分为单机,伪分布式,完全分布式,目测老师教我们的是完全分布式>_<)。
quorum填入所有的子机的IP。
dataDir必须存在,据说是快照的存储位置。
其他参数有兴趣可以参考这里,总之我是没啥兴趣>_<。
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.245.128:9000/hbase</value>
<description>The directory sharedbyRegionServers.</description>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.245.129,192.168.245.130</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/hbasedata</value>
<description>Property fromZooKeeper s config zoo.cfg. The directory where the snapshot isstored.</description>
</property>
</configuration>
编辑regionservers,把自己的ip地址都填进去即可:
配置完成,大功告成。
这时需要将主机上配置完成的hbase整个都拷贝到子机上:
启动
切换到hbase的bin目录下,执行启动的脚本:
./start-hbase.sh
启动完成后,进入hbase的shell看看是否一切正常:
./hbase shell
进去后就可以用list查看表,create创建表了。具体的还是百度吧,不凑字数了。
老师还讲了HIVE,但是实在懒得想是怎么配置的了。。。。