前几天在运行spark的时候一直显示
Could not locate executabl ....\hadoop-2.2.0\hadoop-2.2.0\bin\winutils.exe in the Hadoop binaries
刚开始以为缺少了hadoop,就去下载了hadoop,但是正常安装好了并且添加了环境变量以后还是不能解决。打开hadoop中发现根本就没有winutil.exe这个的出现。因
此就去下载了一个有winytil.exe的hadoop并重新添加环境路径解决了这个问题。
hadoop下载链接:点击打开链接
环境变量配置图: