windows下hadoop的部署和使用

本教程在windows10环境下安装配置hadoop+hbase+spark。

一、下载压缩包:

1、JavaJDK,1.8以上。

2、Hadoop2.8.3,下载地址:http://archive.apache.org/dist/hadoop/core/

Hadoop2.8.3windows环境下的第三方包:winutils,

https://github.com/steveloughran/winutils,如果报nativeio异常,可以将此包解压至hadoop的bin目录下。

3、Spark2.2.0,下载地址:http://archive.apache.org/dist/spark/spark-2.2.0/

4、选择spark-2.2.0-bin-hadoop2.7点击下载。

二、安装配置

1、安装jdk并配置环境变量。

2、解压缩hadoop,配置环境变量。

右键单击我的电脑 –>属性 –>高级环境变量配置 –>高级选项卡 –>环境变量 –> 单击新建HADOOP_HOME,如下图 

3、修改hadoop配置文件

1)修改core-site.xml配置文件,位置在hadoop目录下etc/hadoop/core-site.xml,添加如下配置:

<configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://localhost:9000</value>

    </property>

</configuration>

2)修改hdfs-site.xml配置文件,位置在hadoop目录下etc/hadoop/hdfs-site.xml,添加如下配置:

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

        <property>

                <name>dfs.namenode.name.dir</name>

                <value>/E:/geotrellis/hadoop-2.8.3/data/dfs/namenode</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/E:/geotrellis/hadoop-2.8.3/data/dfs/datanode</value>

        </property>

</configuration>

注意value里的目录,我这里使用全路径配置。

根据上面的配置,在hadoop目录下创建namenode、datanode节点存储目录。如下:

3)重命名mapred-site.xml.template为mapred-site.xml,位置同上添加配置:

<configuration>

        <property>

           <name>mapreduce.framework.name</name>

           <value>yarn</value>

        </property>

</configuration>

4)配置yarn-site.xml,位置同上

<configuration>

        <property>

           <name>yarn.nodemanager.aux-services</name>

           <value>mapreduce_shuffle</value>

        </property>

        <property>

           <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

           <value>org.apache.hadoop.mapred.ShuffleHandler</value>

        </property>

</configuration>

至此,hadoop配置完成,hdfs负责分布式存储,mapreduce负责分布式计算,yarn负责资源调度,基本的(伪)分布式环境初步建立。

三、测试使用

1、格式化namenode的hdfs目录

cmd命令下输入执行:hdfs namenode –format

2、启动hadoop,定位到sbin目录,如下输入

3、启动所有hadoop服务,输入start-all

这时候会弹出4个窗口,输入jps查看进程情况,如下:

输入:http://localhost:8088/ 查看hadoop的启动情况

4、测试和使用

1)创建hdfs的目录,如下:

Hadoop fs –mkdir /user

Hadoop fs –mkdir /user/input

2)上传文件

Hadoop fs –put e:/test.txt /user/input

Txt文本内容如下,输入:

Hadoop fs –cat /user/input/test.txt

3)词频计算

hadoop jar E:/geotrellis/hadoop-2.8.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.3.jar wordcount /user/input/ /user/output

4)查看运行结果,如下:

 

  • 12
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值