Hadoop完全分布式平台环境搭建

1、基于Linux操作系统安装JDK1.8.0
(1)新建三台Linux虚拟机,选择CentOS 64位。
在这里插入图片描述
(2)主节点虚拟机命名为master,数据节点命名为slave01,slave02。
在这里插入图片描述
(3)选择与VMware版本相匹配的光盘映像文件。
在这里插入图片描述
(4)上传jdk1.8.0压缩包。
在这里插入图片描述
(5)使用rpm -qa|grep jdk查看Linux系统自带java并删除相关文件。
在这里插入图片描述
(6)使用命令tar -zxvf解压jdk安装包。

在这里插入图片描述
(7)配置环境变量并使其生效;添加上路径
打开bashrc文件
1)vi ~/.bashrc
在/etc/profile文件末尾加:

export JAVA_HOME=/usr/local/java/jdk1.8.0_2
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:$JAVA_HOME/lib/:$JRE_HOME/lib/
export PATH=$JAVA_HOME/bin:$PATH 
 2)Source ~/.bashrc,使环境变量生效。

在这里插入图片描述
(8)检测jdk正确安装
java -version
在这里插入图片描述
2、Hadoop的安装
(1)关闭防火墙。
在这里插入图片描述

(2)解析主机名。
在这里插入图片描述
(3)配置节点等价性这里master节点和其他datanode节点会略有区别。首先所有节点均执行如下命令,遇到提示一路回车即可:ssh-keygen -t rsa。
在这里插入图片描述
我们用的root用户,公钥私钥都会保存在~/.ssh下:
在这里插入图片描述
(4)在主节点执行命令:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys。
(5)scp文件到datenode节点:scp ~/.ssh/authorized_keys slave:~/.ssh/。
(6)然后输入密码即可,以后再到其他机器就不需要密码。
在这里插入图片描述
测试是否成功
在这里插入图片描述
(7)解压缩hadoop安装包。
在这里插入图片描述
(8)追加bashrc文件。
#HADOOP
export HADOOP_HOME=/usr/hadoop/hadoop7
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
Export HADOOP_HOME_WARN_SUPPRESS=1
在这里插入图片描述
(9)确认Hadoop环境配置生效。
在这里插入图片描述
(10)创建HDFS存储目录cd /usr/hadoop
mkdir hdfs
cd hdfs
mkdir name data tmp
/usr/hadoop/hdfs/name --存储namenode文件
/usr/hadoop/hdfs/data --存储数据
/usr/hadoop/hdfs/tmp --存储临时文件
在这里插入图片描述
(11)配置文件
1)配置core-site.xml。
修改Hadoop核心配置文件/usr/hadoop/hadoop7/etc/hadoop/core-site.xml
通过fs.default.name指定 NameNode 的 IP 地址和端口号,通过hadoop.tmp.dir指定hadoop数据存储的临时文件夹。

<configuration>
   <property>
     <name>hadoop.tmp.dir</name>
     <value>/usr/hadoop/hdfs/tmp</value>
   </property>
  <property>
        <name>fs.default.name</name>
        <value>hdfs://master:9000</value>
   </property>
</configuration>

在这里插入图片描述
2)配置hdfs-site.xml
通过dfs.replication指定HDFS的备份因子为2,通过dfs.name.dir指定namenode节点的文件存储目录,通过dfs.data.dir指定datanode节点的文件存储目录。

<configuration>
   <property>
     <name>dfs.replication</name>
     <value>3</value>
  </property>
  <property>
     <name>dfs.name.dir</name>
      <value>/usr/hadoop/hdfs/name</value>
  </property>
   <property>
     <name>dfs.data.dir</name>
     <value>/usr/hadoop/hdfs/data</value>
   </property>
   <property>
     <name>dfs.permissions</name>
     <value>false</value>
   </property>
</configuration>

在这里插入图片描述
3)配置mapred-site.xml。
修改MapReduce核心配置文件:
/usr/hadoop/hadoop7/etc/hadoop/mapred-site.xml
通过mapred.job.tracker属性指定JobTracker的地址和端口。

<configuration>
  <property>
     <name>mapreduce.framework.name </name>
      <value>yarn</value>
  </property>
</configuration>

在这里插入图片描述
4)配置yarn-site.xml
修改MapReduce核心配置文件:
/usr/hadoop/hadoop7/etc/hadoop/yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
  <property>
    <name>yarn.resourcemanager.hostname</name>
     <value>master</value>
   </property>
  <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
   <property>
     <name>yarn.nodemanager.vmem-check-enabled</name>
     <value>false</value>
   </property>
</configuration>

在这里插入图片描述
(12)配置masters文件。
修改/user/hadoop/conf/masters文件,该文件指定namenode节点所在的服务器机器。删除localhost,添加namenode节点的主机名K-Master;不建议使用IP地址,因为IP地址可能会变化,但是主机名一般不会变化。/usr/hadoop/hadoop7/etc/hadoop/slaves 将里面的localhost删除,配置后内容如下:

在这里插入图片描述
在这里插入图片描述
其中HOSTNAME与主机名一致。主机名如果跟系统安装时不一致请执行hostname命令让其立即生效,否则会影响各节点访问。

在这里插入图片描述
(13)验证启动,格式化HDFS文件系统。
因为master是namenode,slave01和slave02都是datanode,所以在master上运行:
hadoop namenode -format
在这里插入图片描述
格式化成功后,可以看到在/usr/hadoop/hdfs/name目录下多了一个current目录,而且该目录下有一系列文件,如下:

在这里插入图片描述
(14)copy整个/usr/hadoop/目录到其它机器:
scp -r hadoop root@slave01:/usr/

在这里插入图片描述
scp -r hadoop root@slave02:/usr/

在这里插入图片描述
(15)执行 start-all.sh
在这里插入图片描述
master上执行jps,会看到NameNode, SecondaryNameNode, ResourceManager。
其它节点上执行jps,会看到DataNode, NodeManager
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不解风情的老妖怪哎

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值