hadoop伪分布式运行环境搭建

本文详细介绍了在Linux环境下搭建Hadoop伪分布式集群的步骤,包括环境变量配置、核心及各组件配置文件的修改,以及启动过程中的注意事项,如Namenode的格式化和数据目录清理。通过此指南,读者可以成功建立一个用于学习和测试的Hadoop运行环境。
摘要由CSDN通过智能技术生成

序:相关软件版本

一、前期准备

二、需要修改的配置

三、配置修改过程

3.1、环境变量设置,将JAVA变量增加到hadoop变量中

3.2、配置core-site.xml

3.3、配置hdfs-site.xml

3.4、配置yarn-site.xml

3.5、配置mapred-site.xml,指定job在yarn上运行

四、启动伪分布式集群

4.1、格式化namenode (第一次启动前进行格式化,之后尽量不要格式化)

4.2、启动namenode、datenode

4.3、启动resourcemanager、nodemanager

五、总结


序:相关软件版本

  • VMware:VMware-15.5.1
  • Linux:CentOS-7.5-x86_64-DVD-1804.iso
  • JDK:jdk-8u212-linux-x64.tar.gz
  • Hadoop:hadoop-3.1.3.tar.gz

一、前期准备

  1. 准备一台服务器
  2. 服务器静态ip创建
  3. 服务器关闭防火墙
  4. 服务创建新用户,并在/opt/目录下创建两个目录:module,software。并将两个目录拥有者转给新用户
  5. 安装好jdk及hadoop,并配好环境变量

二、需要修改的配置

  1. hadoop-env.sh (hodoop 3.1.3/etc/hodoop/hadoop-env.sh)需配置JAVA_HOME
  2. core-site.xml
  3. hdfs-site.xml
  4. yarn-site.xml
  5. mapred-site.xml

三、配置修改过程

3.1、环境变量设置,将JAVA变量增加到hadoop变量中

位置:/opt/module/hadoop 3.1.3/etc/hadoop/hadoop-env.sh

# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
# export JAVA_HOME=
# 增加以下内容
export JAVA_HOME=/opt/module/jdk1.8.0_212

3.2、配置core-site.xml

位置:/opt/module/hadoop 3.1.3/etc/hadoop/core-site.xml

<configuration>
        <!-- 增加以下内容 -->
        <!-- 指定HDFS中NameNode的地址,指定集群之间交互的端口号 -->
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop101:9820</value>  
        </property>

        <!-- 指定Hadoop运行时产生文件的存储目录 -->
        <property>
                <name>hadoop.tmp.dir</name>           
                <value>/opt/module/hadoop-3.1.3/data/tmp</value>
        </property>
</configuration>

3.3、配置hdfs-site.xml

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值