Windows下安装Hadoop(引导版)

Windows下安装Hadoop(引导版)

本环境只作为测试环境的搭建和学习使用

参考文档

环境:
首先确定环境为java1.8 或者hadoop适配的版本
cmd java -version查看
hadoop环境变量可以不用设置
关于hdfs的配置可以自行修改目录

具体的安装方式参考下面的两个文档

下载软件包
Hadoop3.1.0版本的安装包:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.0/hadoop-3.1.0.tar.gz
Windows环境安装所需的bin文件包(我们这里选择3.1.0):
1、可以打开地址:https://gitee.com/nkuhyx/winutils ,里面选 3.1.0。
2、或者直接下载:https://gitee.com/tttzzzqqq/apache-hadoop-3.1.0-winutils
原文链接:https://blog.csdn.net/tttzzzqqq2018/article/details/131928028

注意在替换bin文件时 选择重复的文件跳过

hadoop软件包的解压方式
start winrar x -y hadoop-3.3.2.tar.gz ./

参考链接:
https://blog.csdn.net/Helen_1997_1997/article/details/136627713

配置文件

文件目录在hadoop etc下

core-site.xml

<configuration>
<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
 </property>
</configuration>

hdfs-site.xml

<configuration>
    <!-- 这个参数设置为1,因为是单机版hadoop -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/D:/develop/hadoop/hadoop-3.1.0/data/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>D:/develop/hadoop/hadoop-3.1.0/data/datanode</value>
    </property>
</configuration>

yarn-site.xml
注意:yarn的资源可以小一点 发现过大的资源分配启动的话 yarn页面访问不到

<configuration>

<!-- Site specific YARN configuration properties -->

    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hahoop.mapred.ShuffleHandler</value>
    </property>
	
	
	<!-- 指定ResourceManager的地址-->
    <!--property>
        <name>yarn.resourcemanager.hostname</name>
        <value>localhost</value>
    </property-->


    <!-- 环境变量的继承 -->
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
    
    <!-- yarn容器允许分配的最大最小内存 -->
    <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>512</value>
    </property>

    <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>4096</value>
    </property>
 
    <!-- yarn容器允许管理的物理内存大小 标配12G-->
    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>4096</value>
    </property>
 
    <!--启用自动检测cpu核数-->
    <!--YARN可使用的虚拟CPU个数,默认是8 此参数配合自动检测-->
    <property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>4</value>
    </property>
 
 

    <!--单个任务可申请的最小虚拟CPU个数,默认是1-->
    <property>
        <name>yarn.scheduler.minimum-allocation-vcores</name>
        <value>1</value>
    </property>
 
    <!--资源设定参数对于开启动态资源分配的设定无效-->
    <!--单个任务可申请的最多虚拟CPU个数,默认是4) 指定为8核心-->
    <property>
        <name>yarn.scheduler.maximum-allocation-vcores</name>
        <value>4</value>
    </property>
 
    <!-- 关闭yarn对物理内存和虚拟内存的限制检查 -->
    <property>
        <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>false</value>
    </property>
    <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
    </property>

    <!-- 开启日志聚集功能 -->
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>

    <!-- 设置日志保留时间为7天 -->
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
    </property>


</configuration>

mapred-site.xml

<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
    <property>
       <name>mapred.job.tracker</name>
       <value>hdfs://localhost:9001</value>
    </property>
</configuration>

workers

localhost

hadoop-env.cmd

@rem The java implementation to use.  Required.
set JAVA_HOME=D:\develop\java\jdk1.8.0_202

hadoop-env.sh

export JAVA_HOME=D:\develop\java\jdk1.8.0_202

查看服务状态

使用jps

在这里插入图片描述

hdfs页面
在这里插入图片描述

yarn页面
在这里插入图片描述

出现的报错和解决

Exception in thread “main” java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
启动不了nameNode,解决方法:

在hadoop文件夹\hadoop-3.0.2\etc\hadoop\core-site.xml的标签下,添加如下内容

<property>

    <name>fs.default.name</name>

    <value>hdfs://localhost:9000</value>
 
  </property>

原文链接:https://blog.csdn.net/qq_37475168/article/details/90749924

有时候启动或者初始化元数据 会出现目录无法识别的状况
可以把D前面的/删除试一试
要查看报错内容
在这里插入图片描述

  • 16
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值