Hadoop集群肯定还是要在linux下使用好些,但是对于想尝鲜的开发者或者上层应用开发来说,在windows下搭建一个单节点的应用也是蛮有必要的,当然只作为开发测试环境。
![a3e10eb97963112a1d84f9a6f2f32618.png](https://img-blog.csdnimg.cn/img_convert/a3e10eb97963112a1d84f9a6f2f32618.png)
一、环境准备
- JDK安装
- Hadoop安装包(官网下载)
- hadooponwindows-master(可使配置更简洁)
二、安装配置
1、以管理员身份解压Hadoop安装包,
![5aa6a1a13e5632b0d8901a098010f8bb.png](https://img-blog.csdnimg.cn/img_convert/5aa6a1a13e5632b0d8901a098010f8bb.png)
2、配置Hadoop环境变量,
我的电脑 --> 属性 --> 高级系统设置 --> 高级 --> 环境变量,新建HADOOP_HOME,然后将%HADOOP_HOME%bin添加到Path中。
![55f6e922337af36c2d46f12d806a6ad1.png](https://img-blog.csdnimg.cn/img_convert/55f6e922337af36c2d46f12d806a6ad1.png)
3、新建data(下面建俩子文件夹namenode和datanode)和tmp目录,
![0fc3eb40b782c272e42dd8e28dfe1bab.png](https://img-blog.csdnimg.cn/img_convert/0fc3eb40b782c272e42dd8e28dfe1bab.png)
4、修改启动类 hadoop-env.cmd,
主要是设置JAVA_HOME的路径,我的文件目录在 E:Dev2hadoophadoop-2.6.0etchadoop,(这里注意一下:如果jdk路径中有“Program Files”,则将Program Files改为 PROGRA~1,否则会报错)
![8944d8f17c3a220cfbe2fe837af37cf9.png](https://img-blog.csdnimg.cn/img_convert/8944d8f17c3a220cfbe2fe837af37cf9.png)
5、修改配置文件(core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml)
核心操作就在这四个配置文件上面了,(如果下载了hadooponwindows-master,解压后可以直接覆盖bin和etc目录,然后只修改这四个文件夹中的路径信息就可以了)
![867cc26bdfa066fbc6067ed05ba70f4b.png](https://img-blog.csdnimg.cn/img_convert/867cc26bdfa066fbc6067ed05ba70f4b.png)
(1)core-site.xml
![d17d981cbe2ce3e2f63d9cf58fb0f43a.png](https://img-blog.csdnimg.cn/img_convert/d17d981cbe2ce3e2f63d9cf58fb0f43a.png)
(2)hdfs-site.xml
![6aa2db6cd64b833ccdc4112789820a66.png](https://img-blog.csdnimg.cn/img_convert/6aa2db6cd64b833ccdc4112789820a66.png)
(3)mapred-site.xml
![0ab9b9e38a40df6d136b3e0807433cae.png](https://img-blog.csdnimg.cn/img_convert/0ab9b9e38a40df6d136b3e0807433cae.png)
(4)yarn-site.xml
![eb98975feff58628c3a0da3d536d06d5.png](https://img-blog.csdnimg.cn/img_convert/eb98975feff58628c3a0da3d536d06d5.png)
6、启动格式化HDFS
首先,hadoop version,查看是否能正常运行,
![6833498cabbe0b82d3433743d2cbeb71.png](https://img-blog.csdnimg.cn/img_convert/6833498cabbe0b82d3433743d2cbeb71.png)
然后,执行 hdfs namenode -format
![4d66e3d307e46df6e08c77de7e3884ea.png](https://img-blog.csdnimg.cn/img_convert/4d66e3d307e46df6e08c77de7e3884ea.png)
格式化之后,namenode文件里会生成一个current文件,则格式化成功。
三、Hadoop启动
在cmd中执行 start-all.cmd 命令,启动Hadoop,路径:E:Dev2hadoophadoop-2.6.0sbin。
![87068e21690735f602047223b53cd86e.png](https://img-blog.csdnimg.cn/img_convert/87068e21690735f602047223b53cd86e.png)
运行成功后,会出现四个窗口,分别是:yarn-resourcemanager、yarn-nodemanager、hadoop-namenode、hadoop-datanode。
![20f7df2919db4360f2f777f1086b482a.png](https://img-blog.csdnimg.cn/img_convert/20f7df2919db4360f2f777f1086b482a.png)
如上,则恭喜,启动成功。
四、HDFS操作测试
安装好了Hadoop环境,接下来我们就敲下hadoop命令,上传几个文件操作实战一下。
1、创建目录
hadoop fs -mkdir hdfs://localhost:9000/my/
hadoop fs -mkdir hdfs://localhost:9000/my/testinput
![0f9904c909ab3d3a82745f90eba9b33b.png](https://img-blog.csdnimg.cn/img_convert/0f9904c909ab3d3a82745f90eba9b33b.png)
2、上传文件
hadoop fs -put E:est01.txt hdfs://localhost:9000/my/testinput
hadoop fs -put E:est02.txt hdfs://localhost:9000/my/testinput
![5b7c64e6d42d752db642386f6172b692.png](https://img-blog.csdnimg.cn/img_convert/5b7c64e6d42d752db642386f6172b692.png)
3、查询文件
hadoop fs -ls hdfs://localhost:9000/my/testinput
![a47cb615ab8e796855b6c28ac5819d76.png](https://img-blog.csdnimg.cn/img_convert/a47cb615ab8e796855b6c28ac5819d76.png)
查询到我们刚刚上传的文件啦,恭喜,测试成功。
五、管理页面
Hadoop自带了web UI管理页面,
1、资源管理(localhost:8088)
![11200f084f1e9bd48df65932fe9a262b.png](https://img-blog.csdnimg.cn/img_convert/11200f084f1e9bd48df65932fe9a262b.png)
2、节点管理(localhost:50070)
![477949f60008519bdc4e00b7d7f026f0.png](https://img-blog.csdnimg.cn/img_convert/477949f60008519bdc4e00b7d7f026f0.png)
总体来说Hadoop在windows下的安装还是比较简单的,只要按部就班就可以了。