解决方法:
背景
本人在执行spark远程连接hdfs进行文件上传的时候报出的错误,经测试,如下方法奏效。
第一步
先下载hadoop-common的zip包,比如hadoop-common-2.2.0-bin-master.zip。解压。然后设置环境变量。
第二步
将bin下的hadoop.dll文件复制到C:\Windows\System32文件夹下。问题解决。
附
如果以上办法问题还没得到解决。则参考以下博客:
https://blog.csdn.net/Vector97/article/details/99695838