实验项目四:完全分布式搭建

实验内容与步骤

1. 配置网络环境:

本次实验用的是Cent OS 6.5 minimal版本,相应的版本可以在官网上下载。
首先安装:
我是用的是parallels desktop 来安装,安装步骤详见:
链接: Mac os上配置PD虚拟机,使其共享网络访问公网.

在这里插入图片描述
vi /etc/sysconfig/network-scripts/ifcfg-eth0进行网络环境的相关配置:
在这里插入图片描述
设置DNS解析(不同的系统不一样):
vi /etc/resolv.conf
在这里插入图片描述
service network restart命令,重启网络服务。
测试网络:
在这里插入图片描述
ping自己和外网都能通,网络配置成功。

2. 时间同步ntp:

yum -y install ntp ntpdate
 ntpdate cn.pool.ntp.org

以上命令进行时间的同步:
date查看当前时间在这里插入图片描述

3. 克隆系统:

前两步做好了之后,可以关机,然后将系统进行克隆,因为需要配置Hadoop的完全分布式搭建,所以克隆了两个主机。

在这里插入图片描述
主机克隆后,需要将网络环境重新配置一下,将硬件地址和UUID删除,并将IP地址更换,之后删除Linux物理地址绑定的文件(该文件会在操作系统重启并生成物理地址以后将物理地址绑定到IP上)
rm -rf /etc/udev/rules.d/70-persistent-net.rules

当然,也可以更改一下主机名称:
vi /etc/sysconfig/network
将HOSTNAME=后面的内容更改成需要的名称即可。

修改网络映射hosts
vim /etc/hosts

例子:
192.168.100.132 master
192.168.100.133 slave1
192.168.100.134 slave2

最后需要重启一下系统:
shutdown -r now或者init 6

最后的效果:

在这里插入图片描述

4. 免秘钥操作:

  1. 生成密钥
    ssh-keygen -t rsa # 一路回车

  2. 将集群中的所有公钥集中到某台机器,生成免密授权登录文件
    bigdata22:

scp ~/.ssh/id_rsa.pub bigdata11:/root/.ssh/22

bigdata33:

scp ~/.ssh/id_rsa.pub bigdata11:/root/.ssh/33

bigdata11:
切换到根目录下的.ssh文件中:

cat id_rsa.pub >> authorized_keys
cat 22 >> authorized_keys
cat 33 >> authorized_keys
  1. 对文件进行授权:
    chmod 600 authorized_keys
    必须改,不然不能免密登录

  2. 将授权列表分发给bigdata22和bigdata33:

scp ~/.ssh/authorized_keys bigdata22:/root/.ssh/authorized_keys
scp ~/.ssh/authorized_keys bigdata33:/root/.ssh/authorized_keys

在这里插入图片描述

5. Jdk和Hadoop安装配置:

利用ForkLift将所需要的jdk文件以及Hadoop文件拷到三个主机上:
在这里插入图片描述
可以先配好一台机器中的配置文件,再将软件复制到其他机器,减少配置的工作量。

rpm -ivh 命令安装rpm包,安装默认路径:
在这里插入图片描述
配置环境变量:
vi .bash_profile

在这里插入图片描述
需要source .bash_profile加载一下。
测试环境JDK:
在这里插入图片描述
HADOOP 安装配置:

  1. 安装源码包用tar -zxvf
    Cd /opt/software tar -zxvf hadoop-2.5.1_x64.tar.gz
  2. 配置环境变量
Vi /root/.bash_profile
export PATH
export JAVA_HOME=/usr/java/jdk1.7.0_79
export HADOOP_HOME=/opt/software/hadoop-2.5.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在这里插入图片描述
3. 加载环境变量

Source  /root/.bash_profile  

在这里插入图片描述

6. core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml配置:

  1. hadoop-env.sh 和 yarn-env.sh 中将Java的环境变量添加:
    在这里插入图片描述
    在这里插入图片描述

  2. core-site.xml配置:
    在这里插入图片描述

代码片段:

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
    <description>默认的文件系统</description>
</property>
<!-- 8020 9000 都是HDFS的RPC端口,都可以 -->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/hadoop/hadoop-2.6.5/data</value>
    <description></description>
</property>
  1. hdfs-site.xml配置:

在这里插入图片描述
代码片段:

<property>
    <name>dfs.replication</name>
    <value>2</value>
    <description>数据块备份数</description>
</property>
<property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
    <description>关闭权限检查</description>
</property>
  1. mapred-site.xml配置:

在这里插入图片描述
代码片段:

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    <description>指定运行mapreduce的框架</description>
</property>
  1. yarn-site.xml配置:
    在这里插入图片描述
    代码片段:
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
    <description>指定namenode节点的地址</description>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    <description>NodeManager上运行的附属服务</description>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    <description>指定shuffle类</description>
</property>
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
    <description>是否启用日志聚合,将slave节点的日志聚合至master</description>
</property>
  1. 将配置好的文件包分别发至其余两个主机上:
    scp -r /opt/software/hadoop-2.5.1 bigdata22:/opt/software
    scp -r /opt/software/hadoop-2.5.1 bigdata33:/opt/software
    在这里插入图片描述

  2. 更改bigdata11上的slaves文件:

在这里插入图片描述

7. 格式化启动节点:

启动hadoop
hadoop namenode -format
在这里插入图片描述

启动hdfs
start-dfs.sh
在这里插入图片描述

启动yarn
start-yarn.sh
在这里插入图片描述
查看一下状态:

在这里插入图片描述

8. web访问测试:

  • HDFS的web端: http://master:50070
    在这里插入图片描述
    在这里插入图片描述
  • MapReduce的web端: http://master:8088

在这里插入图片描述
成功访问,环境搭建完成。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值