当启动spark报找不到可执行的hadoop winutils.exe
可已下载相应版本的winutils.exe到hadoopin 地址:https://github.com/4ttty/winutils
并配置环境变量classpath:%HADOOP_HOME%inwinutils.exe,确保已经配置HADOOP_HOME
再次测试spark-shell

当启动spark报找不到可执行的hadoop winutils.exe
可已下载相应版本的winutils.exe到hadoopin 地址:https://github.com/4ttty/winutils
并配置环境变量classpath:%HADOOP_HOME%inwinutils.exe,确保已经配置HADOOP_HOME
再次测试spark-shell


被折叠的 条评论
为什么被折叠?