Hadoop集群肯定还是要在linux下使用好些,但是对于想尝鲜的开发者或者上层应用开发来说,在windows下搭建一个单节点的应用也是蛮有必要的,当然只作为开发测试环境。
![a3e10eb97963112a1d84f9a6f2f32618.png](https://i-blog.csdnimg.cn/blog_migrate/157cc451e23413d0c1b414f97aaf6c06.jpeg)
一、环境准备
- JDK安装
- Hadoop安装包(官网下载)
- hadooponwindows-master(可使配置更简洁)
二、安装配置
1、以管理员身份解压Hadoop安装包,
![5aa6a1a13e5632b0d8901a098010f8bb.png](https://i-blog.csdnimg.cn/blog_migrate/d160cc7b007bda02b27de86ec80aa458.jpeg)
2、配置Hadoop环境变量,
我的电脑 --> 属性 --> 高级系统设置 --> 高级 --> 环境变量,新建HADOOP_HOME,然后将%HADOOP_HOME%bin添加到Path中。
![55f6e922337af36c2d46f12d806a6ad1.png](https://i-blog.csdnimg.cn/blog_migrate/e3f0cb2ae2925d1b9056270b32408911.jpeg)
3、新建data(下面建俩子文件夹namenode和datanode)和tmp目录,
![0fc3eb40b782c272e42dd8e28dfe1bab.png](https://i-blog.csdnimg.cn/blog_migrate/b652f500a992bc7b26fc06f47a21c46c.jpeg)
4、修改启动类 hadoop-env.cmd,
主要是设置JAVA_HOME的路径,我的文件目录在 E:Dev2hadoophadoop-2.6.0etchadoop,(这里注意一下:如果jdk路径中有“Program Files”,则将Program Files改为 PROGRA~1,否则会报错)
![8944d8f17c3a220cfbe2fe837af37cf9.png](https://i-blog.csdnimg.cn/blog_migrate/77cbcdf79fe3716f6bcbc29aa2477c8c.jpeg)
5、修改配置文件(core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml)
核心操作就在这四个配置文件上面了,(如果下载了hadooponwindows-master,解压后可以直接覆盖bin和etc目录,然后只修改这四个文件夹中的路径信息就可以了)
![867cc26bdfa066fbc6067ed05ba70f4b.png](https://i-blog.csdnimg.cn/blog_migrate/c469be5cb06ba1c662a203277f2380da.jpeg)
(1)core-site.xml
![d17d981cbe2ce3e2f63d9cf58fb0f43a.png](https://i-blog.csdnimg.cn/blog_migrate/236a6c27c4fe0a2808108841b674c799.jpeg)
(2)hdfs-site.xml
![6aa2db6cd64b833ccdc4112789820a66.png](https://i-blog.csdnimg.cn/blog_migrate/605dd8ab40bd1eef233232f76244ab95.jpeg)
(3)mapred-site.xml
![0ab9b9e38a40df6d136b3e0807433cae.png](https://i-blog.csdnimg.cn/blog_migrate/0723a684fc0671c4b8435c4d23f15648.jpeg)
(4)yarn-site.xml
![eb98975feff58628c3a0da3d536d06d5.png](https://i-blog.csdnimg.cn/blog_migrate/5d39e8e8a6d920dd32247b219906253a.jpeg)
6、启动格式化HDFS
首先,hadoop version,查看是否能正常运行,
![6833498cabbe0b82d3433743d2cbeb71.png](https://i-blog.csdnimg.cn/blog_migrate/c1bc14c13a6343b95f8aca359c8c18cc.jpeg)
然后,执行 hdfs namenode -format
![4d66e3d307e46df6e08c77de7e3884ea.png](https://i-blog.csdnimg.cn/blog_migrate/d16a93da1853d831e61a63e2f43db7c5.jpeg)
格式化之后,namenode文件里会生成一个current文件,则格式化成功。
三、Hadoop启动
在cmd中执行 start-all.cmd 命令,启动Hadoop,路径:E:Dev2hadoophadoop-2.6.0sbin。
![87068e21690735f602047223b53cd86e.png](https://i-blog.csdnimg.cn/blog_migrate/9cfad9f7407c221e66101c56615b8069.jpeg)
运行成功后,会出现四个窗口,分别是:yarn-resourcemanager、yarn-nodemanager、hadoop-namenode、hadoop-datanode。
![20f7df2919db4360f2f777f1086b482a.png](https://i-blog.csdnimg.cn/blog_migrate/e66ca7bf5c65d293c4bb4756d58a132d.jpeg)
如上,则恭喜,启动成功。
四、HDFS操作测试
安装好了Hadoop环境,接下来我们就敲下hadoop命令,上传几个文件操作实战一下。
1、创建目录
hadoop fs -mkdir hdfs://localhost:9000/my/
hadoop fs -mkdir hdfs://localhost:9000/my/testinput
![0f9904c909ab3d3a82745f90eba9b33b.png](https://i-blog.csdnimg.cn/blog_migrate/3de97a1918eb18151945031d51272d6f.jpeg)
2、上传文件
hadoop fs -put E:est01.txt hdfs://localhost:9000/my/testinput
hadoop fs -put E:est02.txt hdfs://localhost:9000/my/testinput
![5b7c64e6d42d752db642386f6172b692.png](https://i-blog.csdnimg.cn/blog_migrate/843c25bb91cfd2abd60e2bf905c7a800.jpeg)
3、查询文件
hadoop fs -ls hdfs://localhost:9000/my/testinput
![a47cb615ab8e796855b6c28ac5819d76.png](https://i-blog.csdnimg.cn/blog_migrate/fef1524475714d871e5819844c43f04a.jpeg)
查询到我们刚刚上传的文件啦,恭喜,测试成功。
五、管理页面
Hadoop自带了web UI管理页面,
1、资源管理(localhost:8088)
![11200f084f1e9bd48df65932fe9a262b.png](https://i-blog.csdnimg.cn/blog_migrate/15b8776ba94906ed2f12358f945b2605.jpeg)
2、节点管理(localhost:50070)
![477949f60008519bdc4e00b7d7f026f0.png](https://i-blog.csdnimg.cn/blog_migrate/cfb0f03e7145488e751a1063241dbce3.jpeg)
总体来说Hadoop在windows下的安装还是比较简单的,只要按部就班就可以了。