此文并不是window下安装hadoop最精简的博文,里面是我安装的整个过程遇到的问题,里面我走了很多弯路,相信菜鸡如我都能安装成功,你也可以。
===============================================================================
hadoop是一个分布式集群的框架,hdfs就是其中的分布式文件系统,hadoop在概念上包含更多的东西。
hadoop官网下载地址:https://hadoop.apache.org/releases.html
(最好与spark版本考虑,下载对应的版本)
历史版本请再主页http://hadoop.apache.org 下面得Release archive页面中一个个翻去,我的2.6.0就是从里面发出来的,因为spark装的时hadoop 2.6的,怕用2.7出问题,实际应该是兼容的,但是还是保险一点。
把下载下来的hadoop-2.6.0.tar.gz 直接解压到自己想要放的目录里即可,例如我放在F:\devlopSoftwareDeploy\hadoop-2.6.0
然后同样设置环境变量HADOOP_HOME=F:\devlopSoftwareDeploy\hadoop-2.6.0,以及path中追加%HADOOP_HOME%\bin
验证是否安装成功,cmd中使用hadoop得命令:hadoop fs -ls \
成功的情况是会列出hadoop得hdfs文件系统根目录的文件列表,但是我的报错了