CentOS 下 Hadoop+Hbase 安装手册

 

因为Hadoop本身的优势的将 文件的存储 和 任务处理 分布化,Hadoop分布式架构中有如下两种负责不同功能的服务器,master服务器 和 slave服务器。所以,本安装手册将从二者 的 共体到个体的说明。
安装假定

安装时假设要为2台服务 器安装Hadoop架构,那么我们假设:

1、两台服务器名称为master和slave;

2、两台服务器操作系统均为centos5.* 且版本数大于等于 5.4;

3、Master将作为master主服务器使用,slave将作为slave从服务器使用;

4、Master和slave均正常运行 且 正常联网;

5、Master和slave的wget命令均可正常使用;

6、Master和slave空间足够;

7、Master和slave均已获取root权限;

8、Master ip地址为 192.168.229.133;slave的ip地址为 192.168.229.134;
安装&配置

说明:此部分将安装master和slave共同的部分,以下操作请在master和slave上分别进行。

1、设置Hosts 和 Hostname

在Master和slave的/etc/hosts下共同增加:

192.168.229.133 master

192.168.229.134 slave

修改master的hostname文件:

vi /etc/hostname

master

修改slave的hostname文件:

vi /etc/hostname

slave

2、下载安装jdk 1.6, 并配置,命令为

wget  'http://download.oracle.com/otn-pub/java/jdk/6u26-b03/jdk-6u26-linux-i586-rpm.bin'

./jdk-6u26-linux-i586-rpm.bin

[等待jdk正常安装完成,www.oschina.net假设安装后jdk的路径为 /usr/java/jdk1.6.0-26]

ln -s /usr/java/jdk1.6.6-26 /usr/java/jdk

[配置java环境变量]

vi  /etc/profile

[在文件末添加]

export JAVA_HOME=/usr/java/jdk
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin

[保存退出,使设置生效]

source  /etc/profile

3、安装openssh,命令为:

yum install openssh

[设置ssh无密码连接]

ssh-keygen -t rsa -P '' -f /root/.ssh/id_dsa

cat /root/.ssh/id_dsa.pub >> /root/.ssh/authorized_keys

[将master的id_dsa.pub 传给slave,命名为master_id_dsa ]

[在slave 上执行操作 cat master_id_dsa.pub >> /root/.ssh/authorized_keys ]

4、下载安装 Hadoop,命令为:

wget  'http://labs.renren.com/apache-mirror//hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz'

tar zxvf hadoop-0.20.2.tar.gz

cp -r  hadoop-0.20.2  /opt/hadoop

[配置hadoop环境变量]

vi  /etc/profile 

[在文件末添加]

export HADOOP_HOME=/opt/hadoop

[配置hadoop]

cd  /opt/hadoop/conf

vi  hadoop-env.sh

[在末尾添加 ]

export JAVA_HOME=/usr/java/jdk

vi core-site.xml

[<configuration>节点下添加]

 
01<property>
02   
03  <name>hadoop.tmp.dir</name>
04   
05  <value>/home/hadoop-${user.name}</value>
06   
07</property>
08   
09<property>
10   
11  <name>fs.default.name</name>
12   
13  <value>hdfs://master:9000</value>
14   
15</property>

vi mapred-site.xml

[<configuration>节点下添加]

 
1<property>
2  <name>mapred.job.tracker</name>
3  <value>master:9001</value>
4</property>

vi master

[将内容改为以下内容,注意:不是添加是更改]

master

vi slaves

[将内容改为以下内容,注意:不是添加是更改]

slave

5、下载安装Hbase, 命令为:

wget  'http://labs.renren.com/apache-mirror//hbase/hbase-0.90.3/hbase-0.90.3.tar.gz'

tar zxvf hbase-0.90.3.tar.gz

cp -r  hbase-0.90.3  /opt/hbase

[编辑hbase配置文件]

cd /opt/hbase/conf

vi hbase-env.sh

[在文件的末尾添加]

 
01export JAVA_HOME=/usr/java/jdk
02   
03export HADOOP_CONF_DIR=/opt/hadoop/conf
04   
05export HBASE_HOME=/opt/hbase
06   
07export HBASE_LOG_DIR=/var/hadoop/hbase-logs
08   
09export HBASE_PID_DIR=/var/hadoop/hbase-pids
10   
11export HBASE_MANAGES_ZK=true
12   
13export HBASE_CLASSPATH=$HBASE_CLASSPATH:/opt/hadoop/conf

vi hbase-site.xml

[<configuration>节点下添加 ]

 
01<property>
02   
03    <name>hbase.rootdir</name>
04   
05    <value>hdfs://master:9000/hbase</value>
06   
07</property>
08   
09<property>
10   
11    <name>hbase.tmp.dir</name>
12   
13    <value>/home/hbase-${user.name}</value>
14   
15</property>
16   
17<property>
18   
19    <name>hbase.cluster.distributed</name>
20   
21    <value>true</value>
22   
23</property>
24   
25<property>
26   
27    <name>hbase.cluster.distributed</name>
28   
29    <value>true</value>
30   
31</property>
32   
33<property>
34   
35      <name>hbase.zookeeper.quorum</name>
36   
37      <value>slave</value>
38   
39</property>
40   
41<property>
42   
43      <name>hbase.zookeeper.property.dataDir</name>
44   
45      <value>/home/hbase-data</value>
46   
47</property>

vi regionservers

替换其中内容 ]

slave

rm /opt/hbase/lib/hadoop-core-0.20-*

cp  /opt/hadoop/hadoop-0.20.2-core.jar  ./

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值