配置开发者本地hadoop-3.0.0环境

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/toto1297488504/article/details/79954234

1 配置开发者本地hadoop环境

参考网址:https://blog.csdn.net/songhaifengshuaige/article/details/79575308

1.1.下载hadoop3.0.0并配置环境变量

这里写图片描述

1.2.集成支持windows下运行的hadoop的bin

关于winutils:除了Hadoop安装包和JDK外,还要下载的一个第三方工具是名为winutils的一套类库,下载地址:https://github.com/steveloughran/winutils
注意:如果使用是hadoop-3.0.0,也要将winutils中的所有的dll等文件都覆盖到hadoop目录的bin子目录中去。
解压后的winutils目录结构如下:
这里写图片描述

这里写图片描述
将上面的bin中的内容放到hadoop-3.0.0\bin中

1.3.配置hadoop-env.cmd

关于hadoop的配置,在hadoop目录下的etc/hadoop下找到大量配置文件,文件后缀为sh的是Linux环境用的,cmd的就是windows的脚本,先要配置hadoop-env.cmd,这个文件(笔者电脑上的文件比如:D:\Installed\hadoop-3.0.0\etc\hadoop\hadoop-env.cmd)唯一要配置的地方是:
set JAVA_HOME=D:\Installed\jdk1.8.0_144

注意:
1、 这里的JAVA_HOME地址中不能有空格。否则会报错。
这里写图片描述

1.4.配置core-site.xml

文件位置:D:\Installed\hadoop-3.0.0\etc\hadoop\core-site.xml,配置的文件内容是:

<configuration>
    <property>
       <name>fs.default.name</name>
       <value>hdfs://localhost:9000</value>
   </property>
</configuration>

1.5.配置hdfs-site.xml

该文件是一些与hdfs有关的配置项,这里别忘了预先建立好datanode 和 namenode两个目录,本例中它们在hadoop所在盘符下的本例中他们在hadoop所在盘符下的hadoop/data/dfs/目录下。修改D:\Installed\hadoop-3.0.0\etc\hadoop\hdfs-site.xml。具体内容是:

<configuration>
    <!-- 这个参数设置为1,因为是单机版hadoop -->  
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
     <name>dfs.permissions</name>
     <value>false</value>
  </property>
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>/D:/Installed/hadoop-3.0.0/data/namenode</value>
   </property>
   <property>
        <name>fs.checkpoint.dir</name>
        <value>/D:/Installed/hadoop-3.0.0/data/snn</value>
    </property>
    <property>
        <name>fs.checkpoint.edits.dir</name>
        <value>/D:/Installed/hadoop-3.0.0/data/snn</value>
    </property>
       <property>
       <name>dfs.datanode.data.dir</name>
       <value>/D:/Installed/hadoop-3.0.0/data/datanode</value>
   </property>
</configuration>

1.6.配置mapred-site.xml

配置的文件是:D:\Installed\hadoop-3.0.0\etc\hadoop\mapred-site.xml,具体内容是:
<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
   </property>
</configuration>

1.7.配置yarn-site.xml

配置的文件是:D:\Installed\hadoop-3.0.0\etc\hadoop\yarn-site.xml

<configuration>  
<!-- Site specific YARN configuration properties -->  
    <property>  
        <name>yarn.nodemanager.aux-services</name>  
        <value>mapreduce_shuffle</value>  
   </property>  
   <property>  
        <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>    
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
   </property>  
</configuration>

1.8.运行hadoop

以管理员方式打开cmd,运行hadoop:
cd D:\Installed\hadoop-3.0.0\bin  (或者:进入hadoop的这个bin目录,然后按着shift + 右键,点击在此处打开命令,然后弹出cmd窗口)
hadoop namenode –format    #一定要先格式化hdfs

执行之后的效果是:
这里写图片描述
执行完成之后,在D盘下出现:
这里写图片描述
说明已经初始化完成了

启动dfs和yarn,命令:

cd D:\Installed\hadoop-3.0.0\sbin

start-dfs.cmd   #先启动dfs
start-yarn.cmd  #再启动yarn

start-all.cmd  #等于上面两条命令的组合  

stop-dfs.cmd
stop-yarn.cmd

运行完成之后,访问地址:http://localhost:8088/
这里写图片描述

访问:http://localhost:9870/dfshealth.html#tab-overview
这里写图片描述

阅读更多 登录后自动展开
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页