hadoop的搭建

Hadoop安装规划

 

IP

主机名

192.168.1.11

prac1

192.168.1.13

prac2

 

下载jdkhadoop

 

http://www.oracle.com

http://hadoop.apache.org/

 

安装jdk(所有节点)

 

免安装文件直接解压到当前目录即可:

 

[root@prac1 ~]# pwd

/root

[root@prac1 ~]# tar zxvf jdk-7u7-linux-x64.tar.gz

[root@prac1 ~]# ls jdk

jdk1.7.0_07/              jdk-7u7-linux-x64.tar.gz

[root@prac1 ~]# mv jdk1.7.0_07/ jdk

[root@prac1 ~]# mv jdk /usr/local/

 

然后修改/etc/profile:

 

export JAVA_HOME=/usr/local/jdk

export CLASSPATH=.:$JAVA_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin

 

保存,并执行 source /etc/profile 生效

 

配置host

 

Namenode的机器,需要配置集群中所有机器的ip

修改/etc/hosts

[root@prac1 ~]# vi /etc/hosts

127.0.0.1   localhost

::1         localhost6.localdomain6 localhost6

 

 

192.168.1.11 prac1

192.168.1.13 prac2

 

其他的datanode的/etc/hosts 只需要配置namenode的机器ip和本机ip

[root@prac2 ~]# vi /etc/hosts

127.0.0.1   localhost

::1         localhost6.localdomain6 localhost6

 

 

192.168.1.11 prac1

192.168.1.13 prac2

 

修改hostname(可选)

vi /proc/sys/kernel/hostname

 

建立ssh无密码登录

首先进到root目录下

 

在两个节点都执行如下操作

 

$ssh-keygen -t rsa

$ssh-keygen -t dsa

 

 

 

prac1

 

$cat .ssh/id_rsa.pub >> .ssh/authorized_keys

$cat .ssh/id_dsa.pub >> .ssh/authorized_keys

 

[root@prac1 ~]#  chmod 775 ~/.ssh/authorized_keys

 

注意以下两步要在prac1上进行,如果在prac2上进行,则信任关系建立不成功

 

$ssh prac2 cat .ssh/id_rsa.pub >>.ssh/authorized_keys

$ssh prac2 cat .ssh/id_dsa.pub >>.ssh/authorized_keys

 

 

scp .ssh/authorized_keys prac2:~/.ssh/

 

测试ssh

ssh prac1 date

ssh prac2 date

 

安装hadoop

 

[root@prac1 ~]# tar zxvf hadoop-0.21.0.tar.gz

[root@prac1 ~]# mv hadoop-0.21.0 hadoop

[root@prac1 ~]# mv hadoop /usr/local/hadoop

 

然后修改/etc/profile

 

export HADOOP_HOME=/usr/local/hadoop

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

 

source /etc/profile

 

配置hadoop

 

1.修改/usr/local/hadoop/conf/hadoop-env.sh,添加jdk支持   // 这个很重要

 

export JAVA_HOME=/usr/local/jdk

 

如果ssh端口不是默认的22,在conf/hadoop-env.sh里改下。如:

export HADOOP_SSH_OPTS="-p 1234"

 

2.修改conf/core-site.xml,增加下面内容

 

 

[root@srac1 conf]# mkdir -p /hadoop/hdfs/tmp   // 在两个节点上都建立

 

core-site.xml

 

fs.default.name

hdfs://srac1:9000

 

dfs.replication

1

 

hadoop.tmp.dir

/hadoop/hdfs/tmp

 

 

3.修改conf/hdfs-site.xml,增加下面内容

 

在所有节点上建立以下目录

mkdir -p /hadoop/hdfs/name

mkdir -p /hadoop/hdfs/data

 

 

dfs.name.dir

/data/hdfs/name

 

dfs.data.dir

/data/hdfs/data

 

dfs.datanode.max.xcievers

4096

 

dfs.replication

1

 

 

3.修改conf/mapred-site.xml,增加下面内容 

 

mapred-site.xml

 

mapred.job.tracker

srac1:9001

 

 

0

0

转载于:http://blog.itpub.net/26877787/viewspace-746025/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop的高可用(HA)环境,你需要考虑以下几个步骤: 1. 配置Hadoop集群:确保你已经成功地设置了一个Hadoop集群,并且所有节点都能够正常通信。 2. 配置ZooKeeper:HA模式下,Hadoop使用ZooKeeper来进行主节点的选举和故障切换。你需要安装和配置ZooKeeper集群。 3. 修改Hadoop配置文件:在core-site.xml、hdfs-site.xml和yarn-site.xml等配置文件中,进行如下修改: - 在core-site.xml中,指定ZooKeeper的地址。 - 在hdfs-site.xml中,设置HA相关的属性,如nameservice、namenode、journalnode等。 - 在yarn-site.xml中,设置ResourceManager的高可用属性。 4. 启动JournalNodes:JournalNodes用于存储HDFS的元数据日志,并确保数据的一致性。启动JournalNodes之前,需要在hdfs-site.xml中指定JournalNode的地址。 5. 格式化NameNode:使用`hdfs namenode -format`命令格式化NameNode。这将创建一个新的命名空间并为HA做准备。 6. 启动NameNode和DataNode:启动NameNode时,指定HA相关的配置参数,并确保DataNode也能够正常启动。 7. 启动ResourceManager和NodeManager:启动ResourceManager时,同样要指定HA相关的配置参数,并确保NodeManager也能够正常启动。 8. 进行故障切换测试:通过停止当前的Active节点,触发故障切换,验证HA环境是否正常工作。 以上是搭建Hadoop的高可用环境的基本步骤,具体的配置细节和命令可能会根据你的环境和需求有所不同。请确保在进行任何配置更改之前备份重要数据,并参考官方文档或相关资源获取更多详细信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值