Hadoop+HDFS+HBase+ZooKeeper+Hive 分布式配置

写这篇日志的目的一是方便自己以后查阅,二是能够记录下自己做了什么。如果能够帮到其他各位,那备感荣幸。此外,日志内容通过个人亲自实践,可以保证正确性,有参考其他网友写的东西,会给出参考链接。希望能够多一篇正确、有帮助的环境配置介绍,让他人少浪费时间在各种转载和坑爹的official manual上。

先给出参考链接吧,感谢以上两位作者:

1.Hadoop+HBase分布式配置

2.Hbase安装配置(含分布式Zookeeper)


一.安装环境

1. 安装java jdk 或者 java-6,后者可以看我之前一篇日志;前者没有做过,自己搜一下。

2. 下载软件(以下是我的版本):

Hadoop 1.0.3

HBase 0.92.0

Hive 0.9.0

Zookeeper 3.4.3

3. 选择master和slave(nodeX是主机名):

node3(master): 192.168.226.134

node1(slave1): 192.168.226.135

node2(slave2): 192.168.226.136

4. 配置主机名:

1)sudo vim /etc/hosts

2)注释掉127.0.1.1 ubuntu那行

3)在hosts中添加3中的内容,IP在前,主机名在后

4)编辑/etc/hostname

5)添加对应的主机名

5. 安装ssh:

1)ssh-keygen产生master公私钥对

2)scp分发公钥到

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值