CentOS7 下Hadoop 3.2.0的伪分布式配置

准备工作

1、虚拟机Linux系统环境(CentOS)

这里我用的是VMware® Workstation 15 Pro,Linux系统用的是CentOS7,关于虚拟机下安装CentOS7具体步骤可以自行Google。

2、准备jdk环境

在虚拟机下配置jdk环境有很多种方法,这里我是直接在CentOS7系统下载了 jdk-8u221-linux-x64.tar.gz

3、准备Hadoop安装包

和 jdk 安装一样,都是直接在CentOS7系统里直接下载的,这里的版本是 :hadoop-3.2.0.tar.gz

Hadoop伪分布式配置

一、解压 jdk 和 hadoop 到新文件夹 software

首先,在根目录下创建 software 文件夹:

[helloworld@localhost ~]$ mkdir software

把下载好的 jdk 和 hadoop 压缩包移到 software文件夹下
解压jdk:

[helloworld@localhost ~]$ tar -zxvf jdk-8u221-linux-x64.tar.gz

解压 hadoop :

[helloworld@localhost ~]$ tar -zxvf hadoop-3.2.0.tar.gz

在这里插入图片描述

二、配置环境变量
1、 配置 jdk 的环境变量:

打开 /etc/profile 文件夹:

[helloworld@localhost software]$ vim /etc/profile

在文件最后添加下面两行代码:

export JAVA_HOME=/home/helloworld/software/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin

保存退出后(这个命令可以自己查),使 /etc/profile 生效:

[helloworld@localhost software]$ source /etc/profile

测试 jdk 环境是否安装成功:

[helloworld@localhost software]$ java -version

在这里插入图片描述
出现上述结果即表示 java 安装成功。

2、配置 hadoop 环境变量

在 /home/helloworld/software/hadoop-3.2.0/etc/hadoop/hadoop-env.sh 中添加java环境:

export JAVA_HOME=/home/helloworld/software/jdk1.8.0_221

在这里插入图片描述
再次打开 /etc/profile 文件夹:

[helloworld@localhost software]$ vim /etc/profile

在前面的基础上添加以下代码:

export HADOOP_HOME=/home/helloworld/software/hadoop-3.2.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

环境变量都添加完以后的代码如下:
在这里插入图片描述
改完环境变量后记得立即生效:

[helloworld@localhost software]$ source /etc/profile

检测环境变量是否设置成功:

[helloworld@localhost software]$ hadoop version

在这里插入图片描述

三、修改配置文件
1、修改配置文件 etc/hadoop/core-site.xml
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

在这里插入图片描述

2、修改配置文件 etc/hadoop/hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

在这里插入图片描述

3、修改配置文件 etc/hadoop/mapred-site.xml
 <configuration>
	<property>
 		<name>mapreduce.framework.name</name>
 		<value>yarn</value>
	</property>
</configuration>

在这里插入图片描述
这里要说明一下,下面这些多的代码的用处:这是在我运行WordCount实例时遇到的一个错误的解决方法,详细看这个网页:https://blog.csdn.net/weixin_43207025/article/details/100527859。在配置hadoop时可以不急着把这个加上,等遇到问题时再加上也可以。

    <property>
    	<name>mapreduce.application.classpath</name>
   	<value>/home/helloworld/software/hadoop-3.2.0/share/hadoop/mapreduce/*, /home/helloworld/software/hadoop-3.2.0/share/hadoop/mapreduce/lib/*</value>
    </property>
4、修改配置文件 etc/hadoop/yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
	<property>
            <name>yarn.resourcemanager.hostname</name>
            <value>localhost</value>
      </property>
        <!-- reducer获取数据的方式 -->
      <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
      </property>
</configuration>

在这里插入图片描述

四、格式化NameNode

在 bin 目录下运行 hdfs namenode -format :

[helloworld@localhost bin]$ hdfs namenode -format
五、启动 Hadoop
1、启动 HDFS
[helloworld@localhost hadoop-3.2.0]$ ./sbin/start-dfs.sh

在这里插入图片描述
启动 HDFS 后会有三个进程 DataNode、SecondaryNameNode、NameNode

2、启动 yarn
[helloworld@localhost hadoop-3.2.0]$ ./sbin/start-yarn.sh

在这里插入图片描述
启动 yar n后会有两个进程NodeManager、ResourceManager

3、也可以直接启动全部进程
[helloworld@localhost hadoop-3.2.0]$ ./sbin/start-all.sh

在这里插入图片描述
在这里插入图片描述

六、访问网站检测
1、在终端下使用命令 vim /etc/hosts 查看自己的IP:

在这里插入图片描述

2、用IP地址 + 9870 端口 访问 http://127.0.0.1:9870/

(hadoop 3.x 的端口由 50070 变为 9870)
在这里插入图片描述

3、用IP地址 + 8088 端口 访问:http://127.0.0.1:8088

在这里插入图片描述

七、关闭 Hadoop
[helloworld@localhost hadoop-3.2.0]$ ./sbin/stop-all.sh

在这里插入图片描述
上图表明 hadoop 已经关闭。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. 首先安装Java环境,Hadoop需要Java环境支持,可以使用yum命令安装: ``` yum install java-1.8.0-openjdk-devel.x86_64 ``` 2. 下载Hadoop安装包,可以从官网下载最新版本: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz ``` 3. 解压Hadoop安装包: ``` tar -zxvf hadoop-3.3.0.tar.gz ``` 4. 配置Hadoop环境变量,在/etc/profile文件中添加以下内容: ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后执行以下命令使环境变量生效: ``` source /etc/profile ``` 5. 配置Hadoop分布式模式,修改以下配置文件: - /usr/local/hadoop/etc/hadoop/hadoop-env.sh ``` export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.292.b10-0.el7_9.x86_64 ``` - /usr/local/hadoop/etc/hadoop/core-site.xml ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` - /usr/local/hadoop/etc/hadoop/hdfs-site.xml ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` - /usr/local/hadoop/etc/hadoop/mapred-site.xml ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` - /usr/local/hadoop/etc/hadoop/yarn-site.xml ``` <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>1024</value> </property> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>1</value> </property> </configuration> ``` 6. 格式化Hadoop文件系统,执行以下命令: ``` hdfs namenode -format ``` 7. 启动Hadoop服务,执行以下命令: ``` start-all.sh ``` 8. 查看Hadoop服务状态,执行以下命令: ``` jps ``` 如果输出以下内容,则表示Hadoop服务已经启动成功: ``` 12345 NameNode 23456 DataNode 34567 ResourceManager 45678 NodeManager 56789 Jps ``` 9. 访问Hadoop Web界面,打开浏览器,输入以下地址: ``` http://localhost:9870/ ``` 如果能够正常访问,则表示Hadoop分布式安装成功。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值