RHEL 6.6搭建hadoop 2.x集群环境

1. 环境描述
    OS版本:RHEL 6.6 64位
    Hadoop版本:2.7.1
    各主机信息:

主机名

IP地址

角色

h201

172.17.10.28

Namenodesecondarynamenodejobtracker

h202

172.17.10.29

Datanodetasktracker

h203

172.17.10.30

Datanodetasktracker


2. 准备工作
    2.1. 安装jdk 1.8
        从官网下载jdk 1.8二进制安装文件jdk-8u51-linux-x64.tar.gz,上传到h201主机并解压。
移动jdk目录到/usr/local下并修改所有者和权限:
修改/etc/profile配置文件,增加java环境变量:
为另外两台主机做相同的配置。

2.2. 配置主机间SSH互信(无密码登录)
        分别在三台主机上执行以下操作:
        a. 创建普通用户grid用来安装和启动hadoop集群:
b. 切换到grid用户,生成公钥和秘钥:
c. 将三台主机生成的id_rsa.pub文件中的内容写入同一个authorized_keys文件中,并分别存放在各主机的/home/grid/.ssh/authorized_keys位置
d. 测试SSH互信
2.3. 安装常用软件包:
        yum groupinstall "Development Tools"

3. 下载并安装hadoop 2.7.1
    3.1. 下载hadoop安装包
        从官网下载最新版本的hadoop二进制安装包并上传到h201主机并解压:
3.2. 修改hadoop配置文件
        a. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/hadoop-env.sh
b. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/yarn-env.sh
c. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/slaves
d. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/core-site.xml
e. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/hdfs-site.xml
f. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/mapred-site.xml
g. 修改配置文件/home/grid/hadoop-2.7.1/etc/hadoop/yarn-site.xml
    3.3. 将hadoop_2.7.1目录分发到各个节点的/home/grid/目录下

    3.4. 启动集群并检验
        a. 格式化namenode:
b. 启动HDFS
c. 启动YARN
d. 验证各节点启动的进程
至此,hadoop集群搭建完成。

    4. 故障处理
        4.1. 不能装载hadoop本地库的错误
如图,在启动HDFS时提示不能加载hadoop本地库,由于官方发布的hadoop包的本地库文件libhadoop.so.1.0.0不正确,导致无法加载本地库。
        解决方法:从官网下载源码包,在服务器本地重新编译源码包即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值