hbase安装

1.解压缩hbase-0.94.6.tar.gz
2.修改hbase/conf/的配置文件:
hbase-env.sh
hbase-site.xml
regionservers
3.分发到3个从节点
scp -r ~/hbase hadoop@slave1:~/
scp -r ~/hbase hadoop@slave2:~/
scp -r ~/hbase hadoop@slave3:~/
4.环境变量加入HBASE_HOME和PATH
5.启动hbase:start-hbase.sh
6.命令行以及界面验证hbase安装:
hbase shell
>list
http://master:60010/


一。理念上只有一个namenode,这样形成单点,所以有两个做ha,一个热,一个冷。
namenode形成了集群的性能瓶颈,所以有一个namenode联邦。各家解决方案不同。
二。hbase把数据分配给datanode是hbase自动完成的,可以根据数据量的大小调整一些参数。
行键保证唯一即可。其他的考虑就是业务的查询场景决定了。
三。可以的。删除和添加节点,集群中都可以接受。数据不受影响 。
四。得看具体情况。另外建设安装CDH manager工具,安装CDH版的hadoop.
五。 所有的服务安装与硬件的分配都有一个规划。
六。 无目标不优化,有问题才解决。

高智鹏
13522649287
一、一个集群如果要有多个namenode,是否又要注意的配置,如果有,该如何配置(多个namenode是
怎样的一种工作机制,是同时运作还是一个运作其它待命)?
hadoop+pacemaker+drbd
实现namenode双活
drbd84-utils-8.4.1-2.el6.elrepo.x86_64
elrepo-release-6-5.el6.elrepo.noarch
kmod-drbd84-8.4.1-2.el6.elrepo.x86_64

二、怎样设置才能让hadoop和hbase把数据平均分配给datanode(存数据和取数据,是否只有行键特殊
设计才能实现,如果是的话行键该如何设计)?
hadoop+namenode自动实现

三、一个子节点(datanode)要更换或是要添加一个子节点的能不能不用重新启动就加载到集群当
中(如果能该如何配置)?
手工配置集群完成
hadoop-daemon.sh start datanode


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值