一、下载hadoop
https://archive.apache.org/dist/hadoop/common/
二、解压hadoop,配置环境变量
HADOOP_HOME D:\Yangsq\spark_hadoop\hadoop-2.7.0
path %HADOOP_HOME%\bin
三、验证是否安装成功
打开cmd,输入hadoop version。此处会出现两种现象:
1、失败
Error: JAVA_HOME is incorrectly set.
Please update F:\hadoop\conf\hadoop-env.cmd
查看自己的java环境变量 java -version 发现没问题。
java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b15)
Java HotSpot(TM) 64-Bit Server VM (build 25.2111-b15, mixed mode)
在网上搜索了下资料发现原来是路径上包含了一个空格,打开D:\Yangsq\spark_hadoop\hadoop-2.7.0\etc\hadoop\hadoop-env.cmd(你的文件在哪就去哪找)。
我的jdk是在D:\Program Files\Java\jdk1.8.0_211。
若是安装在C盘,就用路径替代符:
C:\PROGRA~1\Java\jdk1.8.0_211
PROGRA~1 ===== C:\Program Files 目录的dos文件名模式下的缩写
长于8个字符的文件名和文件夹名,都被简化成前面6个有效字符,后面~1,有重名的就 ~2,~3
如果和我一样装在其他盘,并且有空格那就用引号括起来
"D:\Program Files"\Java\jdk1.8.0_211
再次试试hadoop version
虽然有'D:\Program' 不是内部或外部命令啥的,但是成功了。
'D:\Program' 不是内部或外部命令,也不是可运行的程序或批处理文件。
Hadoop 2.7.0
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r d4c8d4d4d203c934e8074b31289a28724c0842cf
Compiled by jenkins on 2015-04-10T18:40Z
Compiled with protoc 2.5.0
From source with checksum a9e90912c37a35c3195d23951fd18f
This command was run using /D:/Yangsq/spark_hadoop/hadoop-2.7.0/share/hadoop/common/hadoop-common-2.7.0.jar