Windows10下配置Hadoop2-x环境

1.下载Hadoop并解压

下载地址

http://hadoop.apache.org/#Download+Hadoop

解压到路径:

C:\Hadoop\hadoop-2.6.5

由于Hadoop在windows上支持的不如linux好,推荐有条件的话仍在Linux上配置Hadoop环境,如果仍要在Windows上使用Hadoop的话,我们需要在Hadoop的解压路径的:"C:\Hadoop\hadoop-2.6.5\bin"路径下添加两个文件:

hadoop.dll、winutils.exe

并且将 hadoop.dll 复制到系统路径中:

C:\Windows\System32

2.配置环境变量

打开:

我的电脑(右击选择属性)-->高级系统设置-->环境变量-->点击新建

添加环境变量:

HADOOP_HOME
复制代码

对应值为Hadoop安装路径:

C:\Hadoop\hadoop-2.6.5
复制代码

然后修改环境变量Path: 在尾部新添加Hadoop的bin目录(尾部没有";"则记得添加";"):

C:\Hadoop\hadoop-2.6.5\bin
复制代码

检查Hadoop环境是否配置好: 在cmd终端中输入:

hadoop version
复制代码

如果输出Hadoop的版本则环境配置完成,若出现JAVA_HOME错误则可能是因为Java默认安装在"C:\Program Files\Java"路径下,出错原因是路径"Program Files"中包含空格,这里应该修改JAVA_HOME为:"C:\Progra~1\Java\jdk1.8.0_151",即将"Program Files"修改为"Progra~1";或者将Java安装在不含空格的路径中以解决问题。

3. 修改Hadoop配置文件

在"C:\Hadoop\hadoop-2.6.5\etc\hadoop"目录下修改一下几个xml配置文件: (1)core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>    
</configuration>
复制代码

(2)hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>    
        <name>dfs.namenode.name.dir</name>    
        <value>file:/hadoop/data/dfs/namenode</value>    
    </property>    
    <property>    
        <name>dfs.datanode.data.dir</name>    
        <value>file:/hadoop/data/dfs/datanode</value>  
    </property>
</configuration>
复制代码

(3)mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
复制代码

(4)yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>
复制代码

4. 运行Hadoop(以管理员身份运行cmd终端)

(1)格式化namenode 在Hadoop路径下:

hadoop namenode -format
复制代码

全部启动:

hadoop .\sbin\start-all.cmd
复制代码

创建输入文件夹:

hadoop fs -mkdir /user/"your user name"/input    //中间需要填写window系统中注册的用户名,去C:\user\下查找
复制代码

将自己创建的文件file1复制到输入文件夹中:

hadoop fs -put file1 /user/***/input
复制代码

运行word count示例:

 hadoop jar .\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.6.5.jar wordcount input outpu
复制代码

注意:这里可能会报错

Exception message: CreateSymbolicLink error (1314)

这个错误的原因很可能是用户权限问题,使用管理员权限运行程序则可成功运行。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值