如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:
出现这个问题的原因,并不是程序的错误,而是 windows 系统用到了 hadoop 相关的服务,解决办法是通过配置关联到 windows 的系统依赖就可以了
在 IDEA 中配置 Run Configuration,添加 HADOOP_HOME 变量
前提:电脑已经安装了Hadoop环境,在Windows环境下需要导入winutils.exe和hadoop.dll到安装路径的bin目录下(两个文件需要自己去网上当),原因:Spark使用Hadoop的HDFS和YARN客户端库