因项目需求,尝试在windows中安装Hadoop
下载
官网下载hadoop (http://www.apache.org/dyn/closer.cgi/hadoop/common)
下载与hadoop版本相同的Hadoop Windows运行包 (https://github.com/cdarlint/winutils)
安装
替换文件
解压之后,将官网Hadoop文件夹下的bin替换为windows 运行包中的bin
![](https://img-blog.csdnimg.cn/img_convert/361e5ac9c3759f368923b9e312e081e8.png)
配置Hadoop环境变量
配置HADOOP_HOME
![](https://img-blog.csdnimg.cn/img_convert/fc9e7e3c9cf8445bedffdfc771b811d1.png)
配置Path
![](https://img-blog.csdnimg.cn/img_convert/b7dd17b233377779829af961d0c507eb.png)
运行win+R出入cmd后,打开命令提示符,输入hadoop version,检查环境变量是否配置成功
1)如果出现下图
![](https://img-blog.csdnimg.cn/img_convert/65267832eba015ab85456eb03fb1a932.png)
修改E:\hadoop-3.2.2\etc\hadoop\hadoop-env.cmd,用notepad--或其他编辑器打开,修改JAVA_HOME,其中PROGRA~1表示DOS下的program Files
![](https://img-blog.csdnimg.cn/img_convert/ae012981df2f6aec3aa2d530cf0a2d37.png)
2)修改完成后,重新查看环境变量是否配置成功,出现下图表示成功
![](https://img-blog.csdnimg.cn/img_convert/6e170c5d126e5c0f81ddebd2e3948c16.png)
修改hadoop配置文件
修改E:\hadoop-3.2.2\etc\hadoop\core-site.xml
填入以下内容
![](https://img-blog.csdnimg.cn/img_convert/7eb5b8400e57a39e55cded7c1d1fb3ed.png)
修改E:\hadoop-3.2.2\etc\hadoop\mapred-site.xml
填入以下内容
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
![](https://img-blog.csdnimg.cn/img_convert/cd78def4579984c0cfbfac58d3eaa521.png)
修改E:\hadoop-3.2.2\etc\hadoop\yarn-site.xml
填入以下内容
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
![](https://img-blog.csdnimg.cn/img_convert/c3a8d46e548b2b44f0f2d9862560ba69.png)
在E:\hadoop-3.2.2路径下新建文件夹data,data下新建namenode和datanode
![](https://img-blog.csdnimg.cn/img_convert/ee9b8e8d569fe9b554b0463d3eb2c298.png)
修改E:\hadoop-3.2.2\etc\hadoop\hdfs-site.xml
填入以下内容,其中dfs.namenode.name.dir与dfs.datanode.data.dir内容根据实际路径填写
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>E:\hadoop-3.2.2\data\namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>E:\hadoop-3.2.2\data\datanode</value>
</property>
![](https://img-blog.csdnimg.cn/img_convert/40eeb25e6196d3ac17632d0349152dae.png)
修改E:\hadoop-3.2.2\etc\hadoop\hadoop-env.sh
查找”export JAVA_HOME=“,填入本地JAVA_HOME/bin路径
![](https://img-blog.csdnimg.cn/img_convert/9457cee146c1975650afe11f543d7a0a.png)
检查Hadoop是否安装成功
1.在Hadoop的bin路径下执行下面操作,打开运行窗口后,输入hdfs namenode -format 如果没报错,说明上面修改的配置文件没问题
![](https://img-blog.csdnimg.cn/img_convert/dc7e7fcb180789c604544ae7a3ed8181.png)
2.在Hadoop的sbin路径下执行下面操作,打开命令窗口后分别输入start-dfs.cmd 和 start-yarn.cmd,分别弹出两个窗口,共四个窗口。不关闭弹出的窗口
![](https://img-blog.csdnimg.cn/img_convert/48d851c9ef5fbba056a9c8bf631c0312.png)
![](https://img-blog.csdnimg.cn/img_convert/210070c869a16bf2f1018fea2efc9242.png)
3.本地浏览器访问http://localhost:9870/,弹出一下页面,Hadoop安装配置完成
![](https://img-blog.csdnimg.cn/img_convert/b080913fbfbb6afd5fed8bf9bd1c3750.png)