动起手来,自己搭建HBase分布式数据库
-
作业要求:
作业要求:从0开始搭建HBase分布式数据库,可以参考以下步骤。
第一步:解压HBase到指定的目录下,并将权限分配给hadoop用户(运行hadoop的账户)。
第二步:配置 HBase 的环境变量到 /etc/profile 文件中。
第三步:修改 conf/hbase-env.sh。
第四步: 启动HBase(前提已经启动 Hadoop)。
提交成果:一份包含HBase主要搭建步骤截图及说明文字的Word文档。
75
评语:
ok,通过提交的作业来看,hbase分布式环境已经搞定,希望hbase的 java api 以及hbase rowkey 设计等下去之后也熟练掌握!
==============================================
1.上传hbase安装包
2.解压
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
3.1修改hbase-env.sh
exportJAVA_HOME=/usr/java/jdk1.7.0_55
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false
vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop04:2181, hadoop03:2181, hadoop02:2181</value>
</property>
</configuration>
vim regionservers
hadoop02
hadoop03
hadoop04
3.2拷贝hbase到其他节点
scp -r/itcast/hbase-0.96.2-hadoop2/ hadoop02:/itcast/
scp -r/itcast/hbase-0.96.2-hadoop2/ hadoop03:/itcast/
scp -r/itcast/hbase-0.96.2-hadoop2/ hadoop04:/itcast/
4.将配置好的HBase拷贝到每一个节点并同步时间。
5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hbase集群
start-dfs.sh
启动hbase,在主节点上运行:
start-hbase.sh
6.通过浏览器访问hbase管理页面
192.168.8.110:60010
7.为保证集群的可靠性,要启动多个HMaster
hbase-daemon.sh start master