Habse安装(三台)
1.下载解压安装包(前提是zookeeper安装完成)
tar zxvf hbase-1.3.1-bin.tar.gz
2.配置环境变量(所有节点)
export HBASE_HOME=/root/hbase-1.3.1
export HCAT_HOME=$HIVE_HOME/hcatalog
export PATH=$PATH:$HBASE_HOME/bin
source /etc/profile
3.修改配置文件
cd hbase-1.3.1/conf
vi regionservers
添加以下配置(从节点主机名)
node2
node3
vi hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node1:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<!--这里配置zookeeper数据存放的目录-->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/root/zookeeper-3.4.5/zkdata/</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node1,node2,node3</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
</configuration>
vi hbase-env.sh
export JAVA_HOME=/root/jdk1.8.0_65
export HBASE_MANAGES_ZK=false
4.拷贝hadoop的配置文件到hbase的配置文件目录
cp /root/hadoop-2.7.4/etc/hadoop/hdfs-site.xml /root/hbase-1.3.1/conf
cp /root/hadoop-2.7.4/etc/hadoop/core-site.xml /root/hbase-1.3.1/conf
5.分发安装文件并启动
scp -r /root/hbase-1.3.1/ root@node2:/root
scp -r /root/hbase-1.3.1/ root@node3:/root
6.启动(主节点)
start-hbase.sh(启动hbase之前先启动zookeeper,hadoop)
cd /root/software/hbase-1.3.1/bin
./start-hbase.sh(先启动zookeeper)
访问192.168.8.100:16010
注意时间同步的问题
Hive与hbase的整合
根据我们前面安装过的hive与hbase来进行配置
1)修改hive-site.xml,添加配置
hbase.zookeeper.quorum
node1:2181,node2:2181,node3:2181
2)引入hbase的依赖包
将hbase安装目录下的lib文件夹下的包导入到hive的环境变量中,在hive-env.sh 文件中添加,路径根据实际情况修改
export HIVE_CLASSPATH=$HIVE_CLASSPATH:/root/hbase/lib/*
整合完毕。