Centos中Hadoop安装详细过程(含图文)

CentOS中hadoop的安装

安装环境

  • 虚拟机上三台centos系统
  • 使用NET模式连接有线网络
  • 在命令行使用ifconfig命令查看静态IP地址
    在这里插入图片描述
  • Xshell5安装在Windows上,用于连接虚拟机

所需软件下载

  • Hadoop官网下载Hadoop:http://hadoop.apache.org/
    在这里插入图片描述
    在这里插入图片描述

  • JDK官网下载:https://www.oracle.com/technetwork/java/javase/downloads/jdk13-downloads-5672538.html
    在这里插入图片描述

  • 将所下软件拷贝至主虚拟机下
    在这里插入图片描述

JDK安装及配置

  • 将安装包解压至/software
    涉及命令:tar -zxvf jdk-8u161-linux-x64.tar.gz -C /software/在这里插入图片描述
  • 配置JDK环境,将JDK路径配置到/etc/profile文件下
    在这里插入图片描述
  • 刷新文件,查看JAVA版本,测试JDK是否安装成功
    在这里插入图片描述

Hadoop安装及配置

  • 将Hadoop安装包解压至/software下
    在这里插入图片描述

  • 将Hadoop环境配置配置以及检测Hadoop是否安装成功
    在这里插入图片描述
    在这里插入图片描述

集群配置

在主服务器上配置

配置hosts文件(路径/etc,文件hosts)将三台服务器静态IP写进去,可以给各个服务器起别名在这里插入图片描述

配置HDFS(路径:/software/hadoop-2.7.3/etc/hadoop)

  1. 配置hadoop-env.sh,加入JDK安装路径
export JAVA_HOME=/software/jdk1.8.0_161

在这里插入图片描述
2. 配置core-site.xml

<!-- 指定HDFS中NameNode的地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
 <!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
 <value>/software/hadoop-2.7.2/data/tmp</value>
</property>

在这里插入图片描述
3. 配置hdfs-site.xml

<!--指定HDFS副本的数量 -->
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

在这里插入图片描述
配置YARN

  1. 配置yarn-env.sh,配置JAVA_HOME
export JAVA_HOME=/software/jdk1.8.0_161

在这里插入图片描述

  1. 配置yarn-site.xml
  <!-- Reducer获取数据的方式 -->
<property>
     <name>yarn.nodemanager.aux-services</name>
     <value>mapreduce_shuffle</value>
</property>
<!--指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>

在这里插入图片描述
3. 配置mapred-env.sh,增加JAVA_HOME

export JAVA_HOME=/software/jdk1.8.0_161

在这里插入图片描述

  1. 配置mapred-site.xml,将mapred-site.xml.template重新命名为mapred-site.xml
    mv mapred-site.xml.template mapred-site.xml
<!--指定MR运行在YARN上 -->
<property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
</property>

配置历史服务器
配置mapred-site.xml,增加以下配置

  <!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>localhost:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
    <value>localhost:19888</value>
</property>

在这里插入图片描述

配置slaves文件,即从服务器结点可让三台服务器同步

在这里插入图片描述

将配置环境拷贝至两台从服务器上

配置主服务器免登录访问从服务器

  1. 为每个节点分别产生公、私密钥配置,使用ssh-keygen命令可以为本服务器生成公钥(id_dsa.pub)和私钥(Id_dsa),要求输入passphrased的时候直接敲回车。
    参考命令:ssh-keygen -t dsa -f ~/.ssh/id_dsa
    再使用cp命令,将公钥文件复制成authorized_keys文件。
    参考命令:cp ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys

在这里插入图片描述

此时,在本服务器上生成公钥和私钥的步骤基本完成,使用ssh 命令登录本机不会再要求输入密码(如果是第一次登录会要求确认是否继续连接),成功之后,也在另外两台服务器上执行相同的操作!!!
  1. 让主结点能通过SSH免密码登录两个子结点
    将主服务器的公钥文件内容添加到从服务器的authorized_keys文件里,就可以实现主服务器免密码登录从服务器了。使用scp命令,将主服务器的公钥文件id_dsa.pub复制到从服务器上,并命令为master.pub。
    参考命令:scp ~/.ssh/id_dsa.pub root@slave1:~/.ssh/master.pub
    再将上一步生成的master.pub文件内容追加到slave1的authorized_keys文件中,可以登录到slave1上去操作,也可以在master上使用ssh命令远程操作。
    参考命令:
    ssh root@slave1"cat ~ /.ssh/master.pub>> ~ /.ssh/authorized_keys"

在这里插入图片描述
按照上面的方法,让master可以ssh免密码访问另外一台从服务器!!!!

将Hadoop复制到各从服务器
将配置好的Hadoop集群复制到从服务器上
参考命令:scp -r /software root@slave1: /software
scp -r /software root@slave2:/software

在这里插入图片描述

将/etc/profile文件拷贝至从服务器

在这里插入图片描述

启动Hadoop,并测试Hadoop是否启动成功

  1. 格式化namenode,启动服务
    命令:bin/hdfs namenode -format
    sbin/./start-all.sh
    在这里插入图片描述

  2. 启动Hadoop
    hadoop服务如果启动成功了,可以在主服务器上查看到NameNode ,SecondaryNameNode,ResourceManager 三个服务,从服务器上看到NodeManager, DataNode 两个服务。

主服务器:
在这里插入图片描述
slave1验证:
在这里插入图片描述
slave2验证:
在这里插入图片描述

HDFS的Web端
在这里插入图片描述

历史服务器启动
在这里插入图片描述
YARN的Web端验证
在这里插入图片描述

历史服务器Web端
在这里插入图片描述

启动服务时DataNode启动不起来

原因:多次格式化NameNode
格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。所以,格式NameNode时,一定要先删除data数据和log日志,然后再格式化NameNode。

  • 20
    点赞
  • 143
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
CentOS安装配置Hadoop详细过程如下: 1. 安装CentOS操作系统,确保系统处于最新版本。 2. 在终端使用以下命令安装Java运行环境: ``` sudo yum install java-1.8.0-openjdk-devel ``` 3. 配置Java环境变量。编辑/etc/profile文件并添加以下行: ``` export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk export PATH=$PATH:$JAVA_HOME/bin ``` 4. 将profile更改应用到系统: ``` source /etc/profile ``` 5. 下载Hadoop软件包,并解压到指定目录。你可以从Hadoop官方网站下载最新的稳定版。 ``` wget https://downloads.apache.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz tar -xzvf hadoop-3.3.0.tar.gz sudo mv hadoop-3.3.0 /usr/local/hadoop ``` 6. 配置Hadoop环境变量。编辑/etc/profile文件并添加以下行: ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 7. 将profile更改应用到系统: ``` source /etc/profile ``` 8. 配置Hadoop的核心文件。 - 编辑Hadoop配置文件core-site.xml: ``` sudo vi /usr/local/hadoop/etc/hadoop/core-site.xml ``` 在<configuration>标签之间添加以下内容: ``` <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> ``` - 编辑Hadoop配置文件hdfs-site.xml: ``` sudo vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml ``` 在<configuration>标签之间添加以下内容: ``` <property> <name>dfs.replication</name> <value>1</value> </property> ``` 9. 设置Hadoop的主节点和从节点。 - 编辑Hadoop配置文件workers: ``` sudo vi /usr/local/hadoop/etc/hadoop/workers ``` 在文件添加从节点的IP地址或主机名。 - 编辑Hadoop配置文件masters: ``` sudo vi /usr/local/hadoop/etc/hadoop/masters ``` 在文件添加主节点的IP地址或主机名。 10. 格式化Hadoop的分布式文件系统(HDFS): ``` hdfs namenode -format ``` 11. 启动Hadoop集群: ``` start-dfs.sh ``` 12. 验证Hadoop是否正常工作。打开网页访问http://localhost:9870,应该能看到Hadoop集群的状态。 以上就是在CentOS安装配置Hadoop的超详细过程,希望能对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

筱文rr

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值