hbase安装模式介绍
1.单机模式
(1)不使用hdfs,仅使用本地文件系统。
(2)zookeeper与hbase运行在同一个jvm中。
2.伪分布式模式
(1)所有进程运行在同一个切点上,不同进程运行在不同的jvm当中。
3.完全分布式模式
(1)进程运行在多个服务器集群中
(2)分布式依赖于HDFS系统,因此部署hbase之前一定要有一个正常工作的hdfs集群。
Linux环境准备
1.关闭防火墙
#service iptables stop
#chkconfig iptables off
#vim /etc/sysconfig/selinux
SELINUX=disabled
2.配置主机名及主机名绑定
#vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=hbase
#vim /etc/hosts
192.168.244.30 hbase
3.SSH免密登录
#ssh-keygen
一直按Enter键
#ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.244.30
4.安装jdk
#tar xvf jdk-linux-x64.tar.gz -C /usr/local/
#vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
#source /etc/profile
Hadoop的安装部署
#tar xvf hadoop-2.5.2.tar.gz -C /usr/local
#cd /usr/local/hadoop-2.5.2/
#vim /etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.7.0_79
1.配置HDFS
#mkidr /usr/local/hadoop-2.5.2/data
#vim /etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.244.30:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.5.2/data/tmp</value>
</property>
</configuration>
#vim etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
2.配置YARN
#mv etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
#vim etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
#vim etc/hadoop/yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
3.启动HDFS
初始化文件系统
#bin/hdfs namenode -format
...
16/09/25 20:33:02 INFO common.Storage: Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted.
...
输出上述信息即代表文件系统初始化成功。
启动NameNode和DataNode进程
#bin/start-dfs.sh
4.启动yarn
#sbin/start-yarn.sh
5.通过jps查看各进程是否启动成功
#jps
2421 NodeManager
2339 ResourceManager
1924 NameNode
2029 DataNode
2170 SecondaryNameNode
2721 Jps
也可以通过http://192.168.244.30:50070/查看hdfs是否启动成功
hbase的安装部署
关于hbase和hadoop的版本对应信息,可参考http://hbase.apache.org/book.html#configuration
#tar xvf hbase-1.2.3-bin.tar.gz -C /usr/local
#cd /usr/local/hbase-1.2.3
#vim conf/hbase-env.sh
export JAVA_HOME=/usr/local/jdk1.7.0_79
1.配置hbase
#mkdir /usr/local/hbase-1.2.3/data
#vim conf/hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.244.30:8020/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/hbase-1.2.3/data/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
#vim conf/regionservers
192.168.244.30
2.启动hbase
#bin/hbase-daemon.sh start zookeeper
#bin/hbase-daemon.sh start master
#bin/hbase-daemon.sh start regionserver
通过jsp查看新增的java进程
2421 NodeManager
2975 HQuorumPeer
3302 HRegionServer
3051 HMaster
2339 ResourceManager
1924 NameNode
2029 DataNode
2170 SecondaryNameNode
3332 Jps
可以看出,新增了HQuorumPeer,HRegionServer和HMaster三个进程。
通过http://192.168.244.30:16030/访问hbase的web页面。
hbase使用已安装的zookeeper
1. 修改conf/hbase-env.sh 添加
export HBASE_MANAGES_ZK=false
HBASE-MANAGES_ZK=false时使用独立的,为true时使用默认自带的。
2. 拷贝zookeeper的配置文件zoo.cfg到HBase的classpath
root@master:/data/soft/hbase# cp /data/soft/zookeeper/conf/zoo.cfg ./conf/
3.修改conf/hbase-site.xml
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/hbase-1.2.3/data/zookeeper</value>
</property>
删掉这一段配置。
4.启动hbase即可。
最后欢迎大家访问我的个人网站:1024s